
Valutazione di impatto diritti umani e diritti fondamentali
Valutazione di impatto diritti umani e diritti fondamentali per operatori pubblici e privati alla luce della legislazione in materia di intelligenza artificiale e sostenibilità e altre legislazioni europee rilevanti in cui il rispetto a diritti fondamentali è ormai fattore di compliance.
L’attività di assistenza in merito all’implementazione della valutazione di impatto sui diritti fondamentali (FRIA), obbligatoria ai sensi dell’AI Act (art. 27) con riguardo quindi ai modelli di intelligenza artificiale, e valutazione obbligatoria di impatto sui diritti fondamentali ora o ai sensi della direttiva europea in tema di Corporate Sustainability.
Guida alla modellistica integrata Data Protection Impact Assessment (DPIA, Art. 35 GDPR) e Fundamental Rights Impact Assessment (FRIA)
Più specificatamente, con riguardo alla FRIA, tre sono le fasi in cui si articolerà il supporto consulenziale:
- Identificazione dei rischi per i diritti fondamentali
Sviluppo di un sistema che illustra i metodi per identificare i rischi sulla base di case studies. In particolare, creazione di una matrice di valutazione del rischio che mostra e stima l’impatto sui primi 50 diritti della Carta – ad es., privacy, discriminazione, dignità umana – utilizzando una scala di impatto da basso a alto, applicata a ogni caso concreto.
- Valutazione del processo
Creazione e implementazione di un questionario qualitativo e quantitativo in grado di mappare il processo del sistema di IA. Il questionario dovrebbe aiutare a identificare in modo sistematico quali dati sono utilizzati, per quanto tempo vengono conservati e quali gruppi sono potenzialmente più esposti ai rischi, come discriminazione o violazione della privacy.
- Misure di mitigazione
Definizione delle misure di mitigazione dell’impatto sui diritti, come tecniche di anonimizzazione, algoritmi di riduzione di bias, valorizzazione dei rimedi e del fattore umano nella vita del sistema IA. L’obiettivo è minimizzare i rischi associati all’IA e assicurare che le decisioni prese siano trasparenti, responsabili e rispettose dei diritti delle persone coinvolte. Ad esempio, valorizzare il ruolo dell’intervento umano (il c.d. human in the loop) garantisce che vi sia supervisione, in particolare nei casi critici.
Valutazione di impatto diritti umani e diritti fondamentali per operatori pubblici e privati alla luce della legislazione in materia di intelligenza artificiale e sostenibilità e altre legislazioni europee rilevanti in cui il rispetto a diritti fondamentali è ormai fattore di compliance.
L’attività di assistenza in merito all’implementazione della valutazione di impatto sui diritti fondamentali (FRIA), obbligatoria ai sensi dell’AI Act (art. 27) con riguardo quindi ai modelli di intelligenza artificiale, e valutazione obbligatoria di impatto sui diritti fondamentali ora o ai sensi della direttiva europea in tema di Corporate Sustainability.
Guida alla modellistica integrata Data Protection Impact Assessment (DPIA, Art. 35 GDPR) e Fundamental Rights Impact Assessment (FRIA)
Più specificatamente, con riguardo alla FRIA, tre sono le fasi in cui si articolerà il supporto consulenziale:
- Identificazione dei rischi per i diritti fondamentali
Sviluppo di un sistema che illustra i metodi per identificare i rischi sulla base di case studies. In particolare, creazione di una matrice di valutazione del rischio che mostra e stima l’impatto sui primi 50 diritti della Carta – ad es., privacy, discriminazione, dignità umana – utilizzando una scala di impatto da basso a alto, applicata a ogni caso concreto.
- Valutazione del processo
Creazione e implementazione di un questionario qualitativo e quantitativo in grado di mappare il processo del sistema di IA. Il questionario dovrebbe aiutare a identificare in modo sistematico quali dati sono utilizzati, per quanto tempo vengono conservati e quali gruppi sono potenzialmente più esposti ai rischi, come discriminazione o violazione della privacy.
- Misure di mitigazione
Definizione delle misure di mitigazione dell’impatto sui diritti, come tecniche di anonimizzazione, algoritmi di riduzione di bias, valorizzazione dei rimedi e del fattore umano nella vita del sistema IA. L’obiettivo è minimizzare i rischi associati all’IA e assicurare che le decisioni prese siano trasparenti, responsabili e rispettose dei diritti delle persone coinvolte. Ad esempio, valorizzare il ruolo dell’intervento umano (il c.d. human in the loop) garantisce che vi sia supervisione, in particolare nei casi critici.