Valutazione di impatto diritti umani e diritti fondamentali


Valutazione di impatto diritti umani e diritti fondamentali per operatori  pubblici e privati alla luce della legislazione in materia di intelligenza artificiale e sostenibilità e altre legislazioni europee rilevanti in cui il rispetto a diritti fondamentali è ormai fattore di compliance.

L’attività di assistenza in merito all’implementazione della valutazione di impatto sui diritti fondamentali (FRIA), obbligatoria ai sensi dell’AI Act (art. 27) con riguardo quindi ai modelli di intelligenza artificiale, e valutazione obbligatoria di impatto sui diritti fondamentali ora o ai sensi della direttiva europea in tema di Corporate Sustainability.

Guida alla modellistica integrata Data Protection Impact Assessment (DPIA, Art. 35 GDPR) e Fundamental Rights Impact Assessment (FRIA)

Più specificatamente, con riguardo alla FRIA, tre sono le fasi in cui si articolerà il supporto consulenziale:

  • Identificazione dei rischi per i diritti fondamentali

Sviluppo di un sistema che illustra i metodi per identificare i rischi sulla base di case studies. In particolare, creazione di una matrice di valutazione del rischio che mostra e stima l’impatto sui primi 50 diritti della Carta – ad es., privacy, discriminazione, dignità umana – utilizzando una scala di impatto da basso a alto, applicata a ogni caso concreto.

  • Valutazione del processo

Creazione e implementazione di un questionario qualitativo e quantitativo in grado di mappare il processo del sistema di IA. Il questionario dovrebbe aiutare a identificare in modo sistematico quali dati sono utilizzati, per quanto tempo vengono conservati e quali gruppi sono potenzialmente più esposti ai rischi, come discriminazione o violazione della privacy.

  • Misure di mitigazione

Definizione delle misure di mitigazione dell’impatto sui diritti, come tecniche di anonimizzazione, algoritmi di riduzione di bias, valorizzazione dei rimedi e del fattore umano nella vita del sistema IA. L’obiettivo è minimizzare i rischi associati all’IA e assicurare che le decisioni prese siano trasparenti, responsabili e rispettose dei diritti delle persone coinvolte. Ad esempio, valorizzare il ruolo dell’intervento umano (il c.d. human in the loop) garantisce che vi sia supervisione, in particolare nei casi critici.

TUTTE LE AREE DI ATTIVITÀ

Valutazione di impatto diritti umani e diritti fondamentali per operatori  pubblici e privati alla luce della legislazione in materia di intelligenza artificiale e sostenibilità e altre legislazioni europee rilevanti in cui il rispetto a diritti fondamentali è ormai fattore di compliance.

L’attività di assistenza in merito all’implementazione della valutazione di impatto sui diritti fondamentali (FRIA), obbligatoria ai sensi dell’AI Act (art. 27) con riguardo quindi ai modelli di intelligenza artificiale, e valutazione obbligatoria di impatto sui diritti fondamentali ora o ai sensi della direttiva europea in tema di Corporate Sustainability.

Guida alla modellistica integrata Data Protection Impact Assessment (DPIA, Art. 35 GDPR) e Fundamental Rights Impact Assessment (FRIA)

Più specificatamente, con riguardo alla FRIA, tre sono le fasi in cui si articolerà il supporto consulenziale:

  • Identificazione dei rischi per i diritti fondamentali

Sviluppo di un sistema che illustra i metodi per identificare i rischi sulla base di case studies. In particolare, creazione di una matrice di valutazione del rischio che mostra e stima l’impatto sui primi 50 diritti della Carta – ad es., privacy, discriminazione, dignità umana – utilizzando una scala di impatto da basso a alto, applicata a ogni caso concreto.

  • Valutazione del processo

Creazione e implementazione di un questionario qualitativo e quantitativo in grado di mappare il processo del sistema di IA. Il questionario dovrebbe aiutare a identificare in modo sistematico quali dati sono utilizzati, per quanto tempo vengono conservati e quali gruppi sono potenzialmente più esposti ai rischi, come discriminazione o violazione della privacy.

  • Misure di mitigazione

Definizione delle misure di mitigazione dell’impatto sui diritti, come tecniche di anonimizzazione, algoritmi di riduzione di bias, valorizzazione dei rimedi e del fattore umano nella vita del sistema IA. L’obiettivo è minimizzare i rischi associati all’IA e assicurare che le decisioni prese siano trasparenti, responsabili e rispettose dei diritti delle persone coinvolte. Ad esempio, valorizzare il ruolo dell’intervento umano (il c.d. human in the loop) garantisce che vi sia supervisione, in particolare nei casi critici.

TUTTE LE AREE DI ATTIVITÀ