Ultime notizie

donna

L’IA è ormai tra noi, pervade in maniera orizzontale le nostre vite e sempre di più lo farà, anche se, dobbiamo dirlo, almeno per ora, l’intelligenza artificiale è una cosa, non un soggetto, e non è paragonabile all’intelligenza naturale.

Questo nuovo fenomeno tecnologico suscita due opposti sentimenti: timore ed euforia, che si intrecciano tra loro.

Timore, perché l’IA porta in sé pericoli e rischi tra i quali: perdita di posti di lavoro, violazioni della privacy, discriminazione, diffusione di fake news, indebite influenze che distorcono le decisioni dei singoli e i processi democratici, ma soprattutto macchine che assumono decisioni completamente automatizzate. Euforia, in quanto le opportunità che si aprono sono notevoli: affrancazione dell’uomo da compiti pericolosi, ripetitivi e poco soddisfacenti, benefici per la salute, accesso all’informazione, possibilità di fruire al massimo delle libertà e dei diritti fondamentali per lo sviluppo pieno della personalità umana.

Come tutti gli strumenti tecnologici, dunque, l’IA può essere utilizzata bene o male.

Quindi è indispensabile l’etica per fondare lo sviluppo e l’uso di intelligenza artificiale affidabile. Tale indifferibile necessità è stata colta dal legislatore europeo il quale nell’adottare il Regolamento n. 1689 entrato in vigore in tuti i paesi UE il 1 agosto 2024 ha fondato l’impianto normativo (il primo al mondo) su una serie di principi etici condivisi.

Innanzi tutto, il perno fondamentale su cui ruota l’intero impianto è l’affermazione del principio di antropocentricità, per cui l’essere umano deve sempre essere consapevole di ciò che la macchina elabora e deve essere in grado di poterla fermare (il c.d. potere di decidere di decidere). La supervisione umana, assicura che l’IA sia sviluppata e utilizzata con la garanzia di un livello elevato di protezione della salute e della sicurezza, nel rispetto dei diritti fondamentali ponendo al centro di ogni utilizzo il benessere degli individui, della società e dell’ambiente.

Altri principi etici fondamentali per lo sviluppo e l’uso dell’IA sono quelli per cui i sistemi di intelligenza artificiale debbono essere robusti e sicuri sotto il profilo tecnico per tutto il loro ciclo di vita, in maniera da ridurre al minimo i rischi di operazioni illecite.

Inoltre, vanno garantiti il controllo, la gestione e la protezione dei dati personali utilizzati.

Ed ancora, va rispettato il principio di trasparenza, che è legato inscindibilmente alla spiegabilità e garantisce, entro limiti possibili (problema della black box), la tracciabilità dei passaggi, dei processi e delle operazioni compiute dall’IA.

I sistemi di IA debbono essere inclusivi, accessibili, non discriminatori, corretti, nel senso che dovrebbero tenere conto delle abilità e delle capacità umane garantendo a tutti l’accessibilità. Per quato si deve evitare che gli algoritmi possano subire dei condizionamenti (anche solo involontari) legati a punti di vista particolari.

Inoltre, principi etici cui attenersi in ambito di intelligenza artificiale sono quelli del benessere sociale e ambientale: quindi deve essere considerato in ogni ambito e in ogni momento l’impatto sull’ambiente e sull’assetto sociale, incoraggiando lo sviluppo e l’utilizzo di IA solo laddove possa garantire uno sviluppo sostenibile.

Infine, va sempre considerato il principio di responsabilità, che da un lato garantisce la continua verifica dei sistemi, sia internamente che esternamente, per ridurre al minimo i possibili impatti negativi, dall’altro è in grado di individuare il soggetto o i soggetti responsabili nella catena dello sviluppo e utilizzo dell’IA.

Dunque, l’IA è sia diavolo che acquasanta, ma non lo è intrinsecamente, in quanto è un mero strumento tecnologico nelle mani degli uomini: per cui, ciò che davvero conta, è che chi la sviluppa, la pone a disposizione e la usa lo faccia nel rispetto dei principi etici.

 

Massimiliano De Luca