Per la videosorveglianza le funzioni di intelligenza artificiale sono un aiuto. Ma resta il problema dell'addestramento affidabile degli algoritmi.
La
videosorveglianza punta molto sul
machine learning. Le funzioni di intelligenza artificiale aiutano nell'analisi della enorme quantità di informazioni presenti nei fotogrammi di una ripresa video. Analisi da cui dipendono
decisioni anche critiche. Un movimento al bordo dello schermo è solo un'ombra o un operaio che scivola vicino a un macchinario? La figura che lascia una borsa è un turista sbadato o un possibile attentatore? La persona così vicina ai binari della metropolitana è un pendolare spazientito o un potenziale suicida?
Oggi tutto questo deve capirlo al volo personale umano, in base al contesto e alla propria esperienza.
In futuro lo faranno algoritmi di AI, in grado di esaminare dati a una scala nettamente superiore a quella umana. Per questo i principali vendor stanno dotando le piattaforme per la videosorveglianza di funzioni analitiche collegate alla intelligenza artificiale.
Il principio di base è lo stesso. I sistemi di AI esaminano i flussi video delle telecamere per
evidenziare comportamenti anomali, segnalandoli al personale di sicurezza. Idealmente, questi algoritmi diventeranno sempre più sofisticati, individuando con maggiore precisione una gamma sempre più vasta di comportamenti. Ma è davvero così?
Videosorveglianza: un occhio digitale in più
I test sul campo e le ricerche scientifiche dimostrano che
l'idea funziona. Si possono effettivamente addestrare algoritmi di machine learning in modo da rilevare comportamenti sospetti.
In diversi casi
l'addestramento è mirato perché il comportamento da individuare ha caratteristiche proprie evidenti. Come il
tailgating, ossia il tentativo di superare una barriera di sicurezza ponendosi nella "scia" di un'altra persona. Altri comportamenti sono più sfumati ma comunque definibili. Chi sta a lungo in una stessa area senza apparentemente fare nulla potrebbe, ad esempio, stare per compiere un atto di vandalismo.
L'AI è efficace anche nel rilevamento di comportamenti che
non sono ben definiti ma genericamente "strani". Questo è fondamentale, perché
è impossibile catalogare tutti i potenziali comportamenti pericolosi delle persone. Uno stesso comportamento potrebbe poi essere deviante o innocuo a seconda del contesto in cui si verifica.
Gli algoritmi di machine learning possono rilevare dalle riprese video comportamenti pericolosi, senza sapere a priori cosa cercare. Questo dopo un
addestramento debolmente supervisionato. Per ogni ripresa campione si indica cioè all'algoritmo solo se contiene o meno una anomalia, senza specificarne alcun dettaglio. Dato che il comportamento delle persone negli spazi pubblici è di norma "pacifico", la
deviazione dalla norma è sempre significativa. Il "comportamento" è analizzato come combinazione e variazione nel tempo di vari parametri. Come posizione, spostamenti, velocità, prossimità ad altre persone.
Il problema dei campioni
Il machine learning ha, in qualsiasi ambito, un punto debole ben noto, ma non per questo da sottovalutare. Un algoritmo cioè
è "buono" quanto il campione di dati usato per addestrarlo. Se quel campione è in qualche modo influenzato da pregiudizi, lo sarà tutto il sistema di sicurezza. Unito alla estrema variabilità dei comportamenti umani, questo rischia di creare una miscela pericolosa.
Per questo
non c'è una soluzione tecnologica ideale. Serve estrema attenzione - ed etica - nel definire i campioni con cui addestrare le intelligenze artificiali pensate per la sicurezza. Il lato positivo è che stiamo raccogliendo tanti contenuti video per l'AI che il rischio del pregiudizio si sta abbassando. Inoltre, lo sbaglio per eccesso di zelo è sì un
falso positivo, ma è sempre meglio di un mancato controllo.
Se questo articolo ti è piaciuto e vuoi rimanere sempre informato con le notizie di
SecurityOpenLab.it iscriviti alla nostra
Newsletter gratuita.
Rimani sempre aggiornato, seguici su Google News!
Seguici