Adottare l'IA in sicurezza richiede trasparenza, protezione dati, prevenzione bias, scelta oculata dei casi d’uso e integrazione nei processi aziendali.
L'IA generativa sta trasformando tutti i settori e, dal lancio di ChatGPT, la sua adozione ha superato la crescita iniziale di Internet. Naturalmente l'IA comporta grandi vantaggi ma anche grandi rischi e, per massimizzarne il valore, le organizzazioni devono bilanciare il potenziale di innovazione con un uso responsabile. I cinque passi qui elencati possono contribuire a un utilizzo dell’intelligenza artificiale sicuro ed efficace.
I modelli di IA generativa non sempre spiegano le loro decisioni e quindi per le organizzazioni è fondamentale tracciarne le azioni, monitorarne il comportamento e creare audit trail chiari. In questo senso, una piattaforma di process automation aiuta prima ad assegnare i compiti agli agenti e ai bot di intelligenza artificiale e poi a inoltrarli agli utenti per l'approvazione finale.
L'IA deve anche citare le sue fonti, in modo che gli utenti possano verificare, se necessario, l'accuratezza dei risultati. Ad esempio, la University of South Florida utilizza chatbot di intelligenza artificiale generativa per fornire ai consulenti accademici strumenti di gestione personalizzata per ogni studente: il sistema estrae i dati dai registri degli studenti, genera gli ordini del giorno delle riunioni, redige le e-mail di follow-up per gli studenti e fornisce ai consulenti i link ai dati degli studenti per la verifica.
Silvia Speranza, Regional Vice President di Appian Italia
Le policy relative all’IA devono prevenire i rischi per la privacy e le violazioni normative: i modelli di IA pubblica utilizzano vasti set di dati pubblici, che possono produrre risultati distorti ed esporre dati sensibili. Peggio ancora, possono incorporare i dati di un’azienda nel loro processo di apprendimento, aiutando potenzialmente i concorrenti. L'IA privata mantiene i dati all'interno dell'azienda, consentendo alle organizzazioni di addestrare i modelli entro i limiti di conformità. In questo modo si protegge la proprietà intellettuale, mantenendo al contempo il pieno controllo dei dati.
I bias, le distorsioni cognitive, dell'IA si verificano quando i dati o gli algoritmi di addestramento creano risultati scorretti. Per ridurli è necessario eliminare dai set di dati gli identificatori sensibili come razza, sesso ed età, così come utilizzare dati diversificati e rappresentativi, oltre a vedere regolarmente le decisioni dell'IA per individuare tempestivamente i problemi. Anche la creazione di modelli di IA privati è utile: quando l'IA viene addestrata solo sui propri dati, si ha il controllo e si può evitare più facilmente che si insinuino pregiudizi esterni.
Nell’ultimo periodo sono state emanate normative contenenti linee guida su quando e come utilizzare l'IA: l'AI Act dell'UE, ad esempio, stabilisce regole severe su come utilizzare l'intelligenza artificiale in settori ad alto rischio, quali l'impiego e l'assistenza sanitaria. Per le applicazioni di IA a basso rischio, come i chatbot e i sistemi di raccomandazione, le linee guida richiedono trasparenza nell’informare gli utenti che stanno interagendo con sistemi di intelligenza artificiale. La determinazione dei livelli di rischio e l'implementazione dei protocolli appropriati sono passi essenziali per garantire la sicurezza e la protezione.
Utilizzare l'IA laddove aggiunge valore, ma mantenere la supervisione umana per le decisioni critiche è fondamentale. Ad esempio, non ci si dovrebbe affidare all’intelligenza artificiale per approvare i mutui: potrebbe, infatti, negare ingiustamente un prestito. L'IA dovrebbe invece fornire assistenza raccogliendo dati e formulando raccomandazioni, passando i casi ad alto rischio all'utente per la decisione finale.
Un’altra possibile applicazione è nel campo assicurativo: qui, ad esempio, un'importante compagnia ha potuto ottimizzare la sottoscrizione di polizze grazie all'IA. Se in precedenza l'inserimento manuale dei dati portava a formati di indirizzo incoerenti, ora l'intelligenza artificiale standardizza gli indirizzi con una precisione dell'80-90%, lasciando che siano i sottoscrittori a prendere le decisioni finali.
L'IA deve operare secondo linee guida chiare. Una piattaforma di process automation dota l’intelligenza artificiale di una struttura, stabilisce dei paletti e segnala le attività che necessitano di una revisione umana. Inoltre, aiuta le organizzazioni nel training di modelli di IA privati e a controllare dove l’IA viene impiegata. Un'IA responsabile non è solo etica: è un vantaggio competitivo, perché un'IA generativa sicura crea fiducia nei clienti, riduce i rischi di business e favorisce la crescita a lungo termine.
Il modo più sicuro per integrare l'intelligenza artificiale nei processi è quello di implementare una piattaforma. Everest Group ha recentemente stilato una classifica dei principali fornitori di piattaforme di automazione intelligente nel suo rapporto annuale, approfondendo punti di forza e debolezze di ciascuna di esse. Se volete saperne di più sull'attuale mercato dell'IA, questa è un'ottima risorsa.
Silvia Speranza è Regional Vice President di Appian Italia