
Intelligenza Artificiale: governance e compliance
Oreste Pollicino ha partecipato alla stesura dell’AI Act ed è oggi membro della assemblea permanente presso la Commissione europea che sta lavorando per l’adozione di un General-Purpose AI Code per l’Unione Europea.
L’attività di AI compliance che il prof. Avv. Oreste Pollicino propone si configura come un insieme di servizi altamente specializzati per supportare aziende, istituzioni pubbliche e organizzazioni internazionali nell’adozione e gestione responsabile di tecnologie basate sull’intelligenza artificiale Questa attività si distingue per l’approccio integrato tra diritto, etica e governance, con particolare attenzione alla protezione dei diritti fondamentali, alla trasparenza e alla sostenibilità normativa.
In particolare l’attività di consulenza si concentra su:
– Costruzione di modelli di governance delle applicazioni di modelli di AI alla luce dell’AI Act per imprese e soggetti pubblici, con identificazione dei profili di ownership dei processi, costruzione cabina di regia, sistemi di test e monitoraggio.
– Guida nella compliance da parte di soggetti pubblici e privati alla luce del nuovo quadro regolatorio definito da AI Act. Adozione e revisione di linee guide relative ai processi di automazione e di intelligenza artificiale. Predisposizioni di regole operative per tradurre le linee guida in disciplina applicabile ai case studies concreti.
– Assistenza a soggetti pubblici ed imprese per accompagnamento nei processi di digitalizzazione ed automazione dei processi, costruzione dei modelli di AI Governance e AI Risk Assesment e AI Litteracy e formazione in conformità a quanto previsto da AI Act.
Più nello specifico:
Consulenza Strategica sulla Compliance Regolatoria
- Analisi normativa: Identificazione dei requisiti legali e regolatori applicabili alle soluzioni di AI, con particolare focus sulle normative dell’Unione Europea, come l’AI Act, il GDPR e il Digital Services Act
- Mappatura dei rischi: Valutazione dei rischi legali ed etici legati all’implementazione dell’AI, inclusi potenziali problemi di bias algoritmico, violazione della privacy, e discriminazione
- Progettazione di strategie di compliance: Creazione di roadmap personalizzate per garantire la conformità alle normative e agli standard etici, bilanciando l’innovazione tecnologica con la tutela dei diritti fondamentali
Audit e Monitoraggio dei Sistemi di AI
- Audit algoritmico: Revisione dei modelli di AI per verificare la trasparenza, l’equità e l’assenza di discriminazioni, nonché per valutare la spiegabilità degli algoritmi (explainable AI)
- Valutazioni d’impatto legale e etico (ALIA): Conduzione di valutazioni d’impatto sull’AI, come richiesto da normative europee emergenti, per identificare i rischi per i diritti fondamentali, come la privacy, l’uguaglianza e la non discriminazione
- Controllo post-implementazione: Monitoraggio continuo per verificare che i sistemi di AI rimangano conformi durante il loro ciclo di vita
Governance e Policy Advisory
- Sviluppo di politiche interne: Supporto nella definizione di policy aziendali per l’uso etico e responsabile dell’AI, includendo codici di condotta, procedure di gestione del rischio, e protocolli per la raccolta e l’elaborazione dei dati
- Costituzione di comitati etici: Assistenza nella creazione di comitati interni dedicati alla supervisione dell’uso dell’AI, con competenze multidisciplinari (legali, tecniche, e sociologiche)
- Formazione dei dirigenti: Progettazione e conduzione di programmi di formazione per dirigenti e dipendenti sull’AI compliance, con un focus sui diritti fondamentali e le implicazioni legali dell’uso dell’AI
Assistenza in Contenziosi e Procedimenti Regolatori
- Rappresentanza legale: Difesa delle aziende in procedimenti amministrativi o contenziosi di livello nazionale ed europeo legati all’uso improprio dell’AI, ad esempio per presunti casi di discriminazione algoritmica o violazioni della privacy
- Gestione delle relazioni con le autorità: Supporto nella comunicazione con autorità di vigilanza, come il Garante Privacy o l’Autorità europea per l’intelligenza artificiale, per risolvere eventuali contestazioni o richieste di chiarimenti
- Supporto in indagini transfrontaliere: Consulenza su questioni legali internazionali, come l’applicazione di normative extraterritoriali (es. GDPR o leggi nazionali sull’AI)
Innovazione e Advocacy
- Supporto a progetti di ricerca e sviluppo: Assistenza nella progettazione di tecnologie AI sin dalle prime fasi, assicurandosi che rispettino i principi di privacy by design e ethics by design
- Advocacy presso istituzioni internazionali: Collaborazione con enti pubblici, think tank e organizzazioni internazionali per contribuire allo sviluppo di linee guida e standard normativi per l’AI
- Partecipazione a consorzi industriali: Assistenza ad aziende o consorzi nello sviluppo di standard industriali per l’AI responsabile
Gestione del Rischio Reputazionale
- Analisi dell’impatto sociale: Identificazione dei rischi reputazionali legati all’implementazione di sistemi di AI, specialmente in contesti sensibili come settore del credito, settore assicurativo, settore energetico, sanità, lavoro, istruzione o giustizia
- Comunicazione strategica: Consulenza sulla comunicazione trasparente con gli stakeholder per gestire le percezioni pubbliche e le aspettative rispetto all’uso dell’AI
Oreste Pollicino ha partecipato alla stesura dell’AI Act ed è oggi membro della assemblea permanente presso la Commissione europea che sta lavorando per l’adozione di un General-Purpose AI Code per l’Unione Europea.
L’attività di AI compliance che il prof. Avv. Oreste Pollicino propone si configura come un insieme di servizi altamente specializzati per supportare aziende, istituzioni pubbliche e organizzazioni internazionali nell’adozione e gestione responsabile di tecnologie basate sull’intelligenza artificiale Questa attività si distingue per l’approccio integrato tra diritto, etica e governance, con particolare attenzione alla protezione dei diritti fondamentali, alla trasparenza e alla sostenibilità normativa.
In particolare l’attività di consulenza si concentra su:
– Costruzione di modelli di governance delle applicazioni di modelli di AI alla luce dell’AI Act per imprese e soggetti pubblici, con identificazione dei profili di ownership dei processi, costruzione cabina di regia, sistemi di test e monitoraggio.
– Guida nella compliance da parte di soggetti pubblici e privati alla luce del nuovo quadro regolatorio definito da AI Act. Adozione e revisione di linee guide relative ai processi di automazione e di intelligenza artificiale. Predisposizioni di regole operative per tradurre le linee guida in disciplina applicabile ai case studies concreti.
– Assistenza a soggetti pubblici ed imprese per accompagnamento nei processi di digitalizzazione ed automazione dei processi, costruzione dei modelli di AI Governance e AI Risk Assesment e AI Litteracy e formazione in conformità a quanto previsto da AI Act.
Più nello specifico:
Consulenza Strategica sulla Compliance Regolatoria
- Analisi normativa: Identificazione dei requisiti legali e regolatori applicabili alle soluzioni di AI, con particolare focus sulle normative dell’Unione Europea, come l’AI Act, il GDPR e il Digital Services Act
- Mappatura dei rischi: Valutazione dei rischi legali ed etici legati all’implementazione dell’AI, inclusi potenziali problemi di bias algoritmico, violazione della privacy, e discriminazione
- Progettazione di strategie di compliance: Creazione di roadmap personalizzate per garantire la conformità alle normative e agli standard etici, bilanciando l’innovazione tecnologica con la tutela dei diritti fondamentali
Audit e Monitoraggio dei Sistemi di AI
- Audit algoritmico: Revisione dei modelli di AI per verificare la trasparenza, l’equità e l’assenza di discriminazioni, nonché per valutare la spiegabilità degli algoritmi (explainable AI)
- Valutazioni d’impatto legale e etico (ALIA): Conduzione di valutazioni d’impatto sull’AI, come richiesto da normative europee emergenti, per identificare i rischi per i diritti fondamentali, come la privacy, l’uguaglianza e la non discriminazione
- Controllo post-implementazione: Monitoraggio continuo per verificare che i sistemi di AI rimangano conformi durante il loro ciclo di vita
Governance e Policy Advisory
- Sviluppo di politiche interne: Supporto nella definizione di policy aziendali per l’uso etico e responsabile dell’AI, includendo codici di condotta, procedure di gestione del rischio, e protocolli per la raccolta e l’elaborazione dei dati
- Costituzione di comitati etici: Assistenza nella creazione di comitati interni dedicati alla supervisione dell’uso dell’AI, con competenze multidisciplinari (legali, tecniche, e sociologiche)
- Formazione dei dirigenti: Progettazione e conduzione di programmi di formazione per dirigenti e dipendenti sull’AI compliance, con un focus sui diritti fondamentali e le implicazioni legali dell’uso dell’AI
Assistenza in Contenziosi e Procedimenti Regolatori
- Rappresentanza legale: Difesa delle aziende in procedimenti amministrativi o contenziosi di livello nazionale ed europeo legati all’uso improprio dell’AI, ad esempio per presunti casi di discriminazione algoritmica o violazioni della privacy
- Gestione delle relazioni con le autorità: Supporto nella comunicazione con autorità di vigilanza, come il Garante Privacy o l’Autorità europea per l’intelligenza artificiale, per risolvere eventuali contestazioni o richieste di chiarimenti
- Supporto in indagini transfrontaliere: Consulenza su questioni legali internazionali, come l’applicazione di normative extraterritoriali (es. GDPR o leggi nazionali sull’AI)
Innovazione e Advocacy
- Supporto a progetti di ricerca e sviluppo: Assistenza nella progettazione di tecnologie AI sin dalle prime fasi, assicurandosi che rispettino i principi di privacy by design e ethics by design
- Advocacy presso istituzioni internazionali: Collaborazione con enti pubblici, think tank e organizzazioni internazionali per contribuire allo sviluppo di linee guida e standard normativi per l’AI
- Partecipazione a consorzi industriali: Assistenza ad aziende o consorzi nello sviluppo di standard industriali per l’AI responsabile
Gestione del Rischio Reputazionale
- Analisi dell’impatto sociale: Identificazione dei rischi reputazionali legati all’implementazione di sistemi di AI, specialmente in contesti sensibili come settore del credito, settore assicurativo, settore energetico, sanità, lavoro, istruzione o giustizia
- Comunicazione strategica: Consulenza sulla comunicazione trasparente con gli stakeholder per gestire le percezioni pubbliche e le aspettative rispetto all’uso dell’AI