Chatbots, Personal Assistant, Robotic Process Automation (RPA), Intelligent Process Automation (IPA), Machine Learning (ML), Cognitive Computing, sono le forme di intelligenza artificiale più diffuse che stanno rivoluzionato da un lato il modo di lavorare e, dall’altro le modalità di fruizione di prodotti e servizi.
Dall’assistente vocale Siri ai cookie che ci suggeriscono cosa acquistare in base alle nostre ultime ricerche in rete, passando per Google Translate fino al piccolo robot che ci aiuta nelle pulizie domestiche, l’Intelligenza Artificiale è presente in molti aspetti della vita quotidiana di ognuno di noi, oltre che in numerosi settori aziendali, come quello automobilistico, finanziario, biomedico.
Con il termine Intelligenza Artificiale (AI) si definisce quella parte dell’informatica che studia e crea sistemi capaci di imparare autonomamente nuovi concetti e attività, di riconoscere immagini e oggetti, di trarre conclusioni logiche e comprendere il linguaggio naturale al fine di ottenere i risultati attesi.
La diffusione pervasiva di questi sistemi, se non governati adeguatamente, può determinare impatti anche significativi su ambiti come privacy, sicurezza ed etica.
A risoluzione della potenziale problematica, il 21 aprile 2021 la Commissione europea ha presentato in bozza il Regolamento del Parlamento europeo e del Consiglio che stabilisce norme armonizzate in materia di intelligenza artificiale e che modifica alcuni atti legislativi dell’Unione. La proposta si pone l’obiettivo di definire regole per la commercializzazione, l’uso e la messa in servizio di sistemi di AI, introducendo una serie di divieti e requisiti specifici, così come regole di trasparenza, monitoraggio e sorveglianza del mercato.
Uno degli aspetti di novità introdotti dalla proposta di Regolamento è la classificazione dei Sistemi di AI in base all’impatto sui diritti fondamentali quali la dignità umana, la libertà, l’uguaglianza, la democrazia, il diritto alla non discriminazione, la protezione dei dati e, in particolare, la salute e la sicurezza.
Tra i sistemi ad alto rischio si annoverano, ad esempio, quelli che prevedono il riconoscimento facciale quale sistemi di autenticazione biometrica o quelli usati in infrastrutture critiche, in contesti di educazione, valutazione dei lavoratori, emergenza, assistenza sociale e valutazione del credito.
Con l’entrata in vigore del Regolamento le Aziende interessate dovranno pertanto sottoporre a valutazione i propri sistemi di AI, siano essi già in produzione o in fase di progettazione e definire un’organizzazione ed un modello di governo per il presidio dei rischi generati dall’uso dell’AI anche allo scopo di limitare il rischio di incorrere in sanzioni.
Al pari del GDPR, dalla pubblicazione definitiva del Regolamento le Aziende avranno 24 mesi per definire e attuare il proprio processo di adeguamento. In questo anno, pertanto, dovranno mettere in atto accortezze tecniche specifiche a garantire la migliore gestione possibile dell’intelligenza artificiale e l’eticità e l’affidabilità delle soluzioni impiegate a tale scopo.
L’AI continua a generare ampi dibattiti sulle questioni etiche, che gli esperti dovranno osservare da più punti di vista. Anche se non è possibile comprendere con anticipo tutti gli scenari potenziali con l’AI, è importante mettere in atto tutti i controlli tecnici possibili e favorire il confronto sull’argomento per il rafforzare un comportamento accorto nei confronti di questo tema, nella ricerca di un corretto bilanciamento tra sviluppo tecnologico e tutela dei diritti fondamentali.
a cura di roberto lazzari e simona di felice
Simona di Felice – Partner