▾ G11 Media: | ChannelCity | ImpresaCity | SecurityOpenLab | Italian Channel Awards | Italian Project Awards | Italian Security Awards | ...

Il parere di Proofpoint

Le previsioni di Daniel Rapp, Chief AI and Data Officer di Proofpoint

Tecnologie/Scenari

Uno strumento di business sempre più regolamentato

Se qualche anno fa, cloud computing, mobile e zero trust erano apparivano come i trend più caldi del momento, ora fanno parte integrante del tessuto di ogni azienda. La stessa cosa sta avvenendo, ma a velocità decisamente superiore, per l’intelligenza artificiale. Le tecnologie di AI, e in particolare qeulla generativa, vengono esaminate soprattutto dal punto di vista di chi acquista, con molti che le considerano un rischio di terze parti. La loro crescente diffusione chiama in causa i CISO, che devono cercare di capire sia il rapporto generale tra rischi e benefici che la rilevanza del loro pericolo. I CISO desiderano conoscere in modo preciso come i dipendenti utilizzino l’AI per capire se e come possano mettere a rischio le informazioni sensibili e di conseguenza aumenterà il controllo su come i Large Language Model (LLM) alimentano gli strumenti di AI. Proprio come le etichette sulle confezioni degli alimenti - apparse per la prima volta negli anni ‘60 e ’70 - indicano quali ingredienti sono stati utilizzati in un prodotto, i CISO di oggi si chiederanno sempre più spesso “cosa c’è in questo strumento di AI e come facciamo a sapere che sia stato sviluppato e protetto correttamente?”.

Un supporto concreto ai processi di decision making

L’AI generativa andrà oltre la generazione di contenuti e diventerà il motore decisionale di innumerevoli processi aziendali, dalle risorse umane al marketing, fino a DevOps. Nel 2025, l’AI diventerà un supporto di lavoro indispensabile per gli sviluppatori, occupandosi di tutto, dall’automatizzare le correzioni dei bug ai test e all’ottimizzare il codice. La tendenza all’utilizzo di strumenti di sviluppo assistiti da intelligenza artificiale crescerà ulteriormente nel corso del 2025, colmando le lacune di competenze, riducendo i tassi di errore e aiutando gli sviluppatori a tenere il passo con i cicli di rilascio più rapidi di DevOps. L’AI darà il suo contributo anche in questo ambito, prevedendo colli di bottiglia e suggerendo ottimizzazioni in modo preventivo, trasformando di fatto le pipeline DevOps in “linee di produzione predittive”, creando flussi di lavoro in grado di risolvere i problemi prima che abbiano un impatto sulla produzione.

I cybercriminali sfrutteranno l’AI manipolando i dati privati

La convergenza che stiamo vivendo nel mondo dell’intelligenza artificiale è particolarmente affascinante, con modelli sempre più capaci ed agenti AI semi-autonomi che si integrano in flussi di lavoro automatizzati. Si tratta di un’evoluzione che apre interessanti possibilità per gli attori delle minacce, in particolare per la possibilità di manipolare i dati privati utilizzati dagli LLM. Poiché gli agenti di intelligenza artificiale dipendono sempre più da informazioni personali contenute in e-mail, archivi di documenti SaaS e altre fonti simili, la loro protezione diventerà ancora più importante.

Nel 2025 inizieremo a vedere i primi tentativi di manipolare le fonti di dati privati. Ad esempio, potremmo assistere a minacce che ingannano di proposito l’intelligenza artificiale contaminando le informazioni personali utilizzate dai LLM, modificando deliberatamente e-mail o documenti con dati falsi o fuorvianti per confondere l’intelligenza artificiale o farle compiere azioni dannose. Questo sviluppo richiederà maggiore vigilanza e misure di sicurezza avanzate per garantire che l’AI non venga ingannata.

Se questo articolo ti è piaciuto e vuoi rimanere sempre informato con le notizie di SecurityOpenLab.it iscriviti alla nostra Newsletter gratuita.
Rimani sempre aggiornato, seguici su Google News! Seguici

Notizie correlate

Iscriviti alla nostra newsletter

Soluzioni B2B per il Mercato delle Imprese e per la Pubblica Amministrazione

Iscriviti alla newsletter