Opportunità senza precedenti, ma anche impatto potenzialmente negativo sui diritti dell’uomo. L’ascesa inarrestabile dell’utilizzo dell’intelligenza artificiale è seguito con attenzione dalle istituzioni internazionali e il Consiglio d’Europa vuole restare in prima linea per garantire il rispetto dei diritti umani nell’utilizzo dell’intelligenza artificiale. Dopo l’adozione della Convenzione quadro sull’intelligenza artificiale e i diritti umani, la democrazia e lo Stato di diritto, il Comitato sull’intelligenza artificiale (CAI) nella sessione plenaria del 26 novembre ha adottato la metodologia HUDERIA (Human Rights, Democracy, and the Rule of Law Impact Assessment for AI Systems, (CAI(2024)16rev2, HUDERIA CAI), un nuovo strumento per fornire orientamenti e un approccio strutturato “per condurre valutazione dei rischi e dell’impatto dei sistemi di intelligenza artificiale”. Come chiarito dal CAI, il nuovo strumento servirà a soggetti pubblici e privati “per identificare e affrontare i rischi e l’impatto sui diritti umani, sulla democrazia e sullo Stato di diritto nell’intero ciclo di vita dei sistemi di AI”. In ogni caso, la guida non ha un effetto vincolante e non è uno strumento di interpretazione della Convenzione quadro.
In base alla metodologia HUDERIA, dovrà essere creato un piano di mitigazione dei rischi e dovrà essere garantito un intervento per rimuoverli. Pertanto, se il sistema di AI utilizzato, ad esempio, nelle assunzioni nel mondo del lavoro “mostra pregiudizi nei confronti di determinati gruppi demografici, il piano di mitigazione potrebbe prevedere la correzione dell’algoritmo o l’attuazione di una revisione umana”. Nel 2025, il Comitato sull’intelligenza artificiale procederà a integrare la metodologia HUDERIA con il modello HUDERIA “che fornirà materiale e risorse di supporto, tra cui strumenti flessibili e raccomandazioni scalabili”.
Aggiungi un commento