Se da un lato l'AI può liberarci da compiti noiosi e persino eliminare l'errore umano, dall'altro è fondamentale ricordare le sue lacune e le capacità uniche messe in campo dagli esseri umani
Autore: Fabio Buccigrossi
L'Intelligenza Artificiale è ormai parte integrante della nostra vita, dai chatbot che ci aiutano a gestire il tracking dei prodotti ordinati agli algoritmi che suggeriscono cosa acquistare sui siti di shopping online. Anche attività come scrivere post su LinkedIn o email possono essere assistite dall'AI generativa. Ma qual è il confine? Con l'AI che gestisce compiti monotoni e crea contenuti a velocità incredibili, ci si chiede se gli esseri umani siano ancora necessari sul posto di lavoro.
L'AI ottimizza i processi aziendali e riduce il tempo dedicato a compiti poco produttivi. Le aziende usano l'AI per diverse funzioni, dall’analisi dei curriculum, all'identificazione di anomalie nei dati o per generare contenuti. Tutto questo, in una frazione del tempo che impiegherebbe un essere umano. In circostanze dove una diagnosi precoce e un intervento tempestivo sono cruciali, l'uso dell'AI può avere un impatto molto positivo. Per esempio, un test del sangue potenziato dall'AI potrebbe aiutare a prevedere il Parkinson fino a sette anni prima della comparsa dei sintomi.
Grazie alla capacità di scoprire schemi in enormi quantità di dati, le tecnologie AI possono anche supportare il lavoro delle Forze dell'Ordine, aiutandole a identificare probabili scene del crimine. Gli strumenti AI-driven hanno un ruolo anche nel combattere il crimine e altre minacce nel mondo online, aiutando i professionisti della cybersecurity a svolgere meglio il proprio lavoro.
La capacità dell'AI di far risparmiare tempo e denaro alle aziende non è una novità. Pensiamo a questo: meno tempo i dipendenti spendono in compiti ripetitivi più tempo possono dedicare alla strategia aziendale e alla crescita. I sistemi basati sull'AI possono anche aiutare a eliminare il rischio di errore umano. Tutti possiamo commettere errori, specialmente se sotto stress. I sistemi basati sull'AI possono lavorare 24 ore su 24 senza mai stancarsi. In un certo senso, hanno un livello di affidabilità che neanche il più dettagliato e metodico degli esseri umani può raggiungere.
A un esame più attento, però, le cose si complicano un po'. Sebbene i sistemi AI possano minimizzare gli errori associati alla fatica e alla distrazione, non sono infallibili. L'AI può anch'essa commettere errori e "allucinare", ovvero produrre affermazioni false presentandole come se fossero corrette, specialmente se ci sono problemi con i dati su cui è stata addestrata o con l'algoritmo stesso. In altre parole, i sistemi AI sono buoni quanto i dati su cui sono stati addestrati (che richiedono competenza e supervisione umana).
Inoltre, mentre gli esseri umani possono cercare di essere obiettivi, tutti siamo soggetti a bias, ovvero pregiudizi inconsci basati sulle nostre esperienze di vita, ed è difficile, se non impossibile, eliminarli completamente. L'AI non crea bias di per sé; piuttosto, può amplificare i bias già presenti nei dati su cui è addestrata. In pratica, uno strumento di AI addestrato con dati puliti e privi di bias può produrre risultati puramente basati sui dati e correggere il processo decisionale umano distorto. Detto ciò, garantire equità e obiettività nei sistemi AI richiede uno sforzo continuo nella selezione e nella gestione dei dati, nella progettazione degli algoritmi e nel monitoraggio costante.
Uno studio del 2022 ha mostrato che il 54% dei leader tecnologici si è dichiarato molto preoccupato per il bias nell'AI. Le conseguenze negative dell'uso di dati distorti sono già evidenti nel mondo aziendale. Ad esempio, a causa di dataset che riflettono pregiudizi preesistenti, una compagnia di assicurazioni auto in Oregon ha applicato alle donne un costo assicurativo circa dell'11,4% superiore rispetto agli uomini per la stessa polizza, nonostante tutte le altre condizioni fossero identiche. Questo può facilmente danneggiare la reputazione dell'azienda e portare alla perdita di clienti.
Con l'AI che utilizza dataset ampi, sorge anche la questione della privacy. Quando si tratta di dati personali, attori con intenti malevoli potrebbero trovare modi per bypassare i protocolli di privacy e accedere a queste informazioni. Sebbene sia possibile creare un ambiente di dati più sicuro attraverso questi strumenti e sistemi, le organizzazioni devono rimanere vigili su eventuali lacune nella loro sicurezza informatica con l’ulteriore superficie di dati che l'AI comporta. Inoltre, l'AI non può comprendere le emozioni. Gli utenti che interagiscono con l'AI possono avvertire una mancanza di empatia e comprensione che potrebbero ottenere da un'interazione "umana" reale. Questo può influenzare l'esperienza del cliente o dell'utente, come dimostra il caso del gioco World of Warcraft, che ha perso milioni di giocatori con la sostituzione del proprio team di assistenza clienti, che era composto da persone reali che entravano persino nel gioco per mostrare ai giocatori come eseguire azioni, con bot AI privi di quel senso dell'umorismo e di quell’empatia.
Con il suo dataset limitato, l’AI può incontrare difficoltà nell’interpretare i dati a causa della mancanza di contesto. Ad esempio, gli esperti di cybersecurity possono avere una comprensione approfondita di un attore della minaccia specifico, che consente loro di identificare e rilevare segnali di allerta che una macchina potrebbe non riconoscere se non allineata con il suo algoritmo programmato. Sono queste sfumature che possono avere conseguenze enormi nel tempo, sia per l'azienda che per i suoi clienti.
Mentre l'AI manca di contesto e comprensione dei dati di input, gli esseri umani mancano di comprensione di come funzionano i sistemi AI. Quando l'AI opera come una "scatola nera", non c'è trasparenza su come vengano prodotti gli output o le decisioni fornite. L'impossibilità di identificare i "calcoli" dietro le quinte può portare le persone a dubitare della sua validità. Inoltre, in caso di malfunzionamento o se i dati di input sono alterati, diventa difficile identificare, gestire e risolvere il problema.
Gli esseri umani non sono perfetti. Ma quando si tratta di parlare ed entrare in relazione con le persone e di prendere decisioni strategiche importanti, sono sicuramente i migliori candidati per questo compito. A differenza dell'AI, le persone possono adattarsi a situazioni in evoluzione e pensare in modo creativo. Senza regole predefinite, i dataset limitati e i prompt che l'AI utilizza, gli esseri umani possono utilizzare la loro iniziativa, conoscenza ed esperienza per affrontare le sfide e risolvere i problemi in tempo reale. Questo è particolarmente importante quando si prendono decisioni etiche e si bilanciano gli obiettivi aziendali (o personali) con l'impatto sociale. Ad esempio, gli strumenti di AI utilizzati nei processi di assunzione potrebbero non considerare le implicazioni più ampie del rifiuto di candidati basato su bias algoritmici, e le conseguenze che questo potrebbe avere sulla diversità e inclusione sul posto di lavoro.
Poiché l'output dell'AI è creato da algoritmi, corre anche il rischio di essere formulato in modo stereotipato. Consideriamo l'AI generativa utilizzata per scrivere blog, email e didascalie sui social media: strutture di frasi ripetitive possono rendere il testo poco coinvolgente. I contenuti scritti da esseri umani avranno probabilmente più sfumature, prospettive e, diciamolo, personalità. Specialmente per il messaggio del brand e il tone of voice, può essere difficile imitare lo stile di comunicazione di un'azienda utilizzando gli algoritmi rigidi che l'AI segue.
Tenendo conto di ciò, mentre l'AI potrebbe essere in grado di fornire un elenco di potenziali nomi per un marchio, sono le persone che ci lavorano possono comprendere il loro pubblico e capire cosa potrebbe avere maggiore risonanza. Con l'empatia e la capacità di cogliere le sfumature, gli esseri umani possono connettersi meglio con gli altri, favorendo relazioni più forti con clienti, partner e stakeholder. Questo è particolarmente utile nel servizio clienti. Come accennato prima, un servizio clienti scadente può portare alla perdita di fedeltà e fiducia nel marchio.
Infine, gli esseri umani possono adattarsi rapidamente a condizioni in evoluzione. Se si necessita di una dichiarazione aziendale urgente o si deve cambiare rapidamente il messaggio di una campagna, è necessario un essere umano. L'aggiornamento degli strumenti di AI richiede tempo, e potrebbe non essere disponibile in determinate situazioni.
L'approccio più efficace è affidarsi ai punti di forza di entrambi. Questo potrebbe significare utilizzare l'AI per gestire l'analisi e l'elaborazione di grandi quantità di dati, per poi ricorrere all'esperienza umana per il processo decisionale, la pianificazione strategica e la comunicazione. L'AI dovrebbe essere usata come uno strumento per supportare e migliorare la forza lavoro, non per sostituirla.
Fabio Buccigrossi è Country Manager di ESET Italia