ASSEMBLEA PARLAMENTARE DEL CONSIGLIO D'EUROPA
←
→
Page content transcription
If your browser does not render page correctly, please read the page content below
SENATO DELLA REPUBBLICA XVIII LEGISLATURA Doc. XII-bis n. 218 ASSEMBLEA PARLAMENTARE DEL CONSIGLIO D'EUROPA ______________ Risoluzione n. 2342 Giustizia tramite algoritmo – il ruolo dell’intelligenza artificiale nei sistemi di polizia e giustizia penale Trasmessa l'11 novembre 2020
Camera dei Deputati — 2 — Senato della Repubblica XVIII LEGISLATURA — DISEGNI DI LEGGE E RELAZIONI — DOCUMENTI — DOC. XII-BIS N. 218 PARLIAMENTARY ASSEMBLY OF THE COUNCIL OF EUROPE RESOLUTION 2342 (2020) (1) Provisional version Justice by algorithm – the role of artificial intelligence in policing and criminal justice systems PARLIAMENTARY ASSEMBLY, oversight of all of these powers: effective, independent, impartial scrutiny of the au- 1. Artificial intelligence (AI) applica- thorities’ exercise of criminal law powers tions can now be found in many spheres with the potential to interfere profoundly of human activity, from pharmaceutical with fundamental human rights. The intro- research to social media, agriculture to duction of non-human elements into deci- on-line shopping, medical diagnosis to fi- sion-making within the criminal justice sy- nance, and musical composition to crimi- stem may thus create particular risks. nal justice. They are increasingly powerful 3. If the public is to accept the use of and influential, and the public is often AI and enjoy the potential benefits that AI unaware of when, where and how they are can bring, it must have confidence that being used. any risks are being properly managed. If 2. The criminal justice system repre- AI is to be introduced with the public’s sents one of the key areas of the State’s informed consent, as one would expect in responsibilities, ensuring public order and a democracy, then effective, proportionate preventing violations of various fundamen- regulation is a necessary condition. tal rights by detecting, investigating, pro- 4. Regulation of AI, whether voluntary secuting and punishing criminal offences. self-regulation or mandatory legal regula- It gives the authorities significant intrusive tion, should be based on universally ac- and coercive powers including surveil- cepted and applicable core ethical princi- lance, arrest, search and seizure, deten- ples. The Parliamentary Assembly consi- tion, and the use of physical and even ders that these principles can be grouped lethal force. It is no accident that interna- under the following broad headings: tional human rights law requires judicial 4.1. transparency, including accessi- bility and explicability; 4.2. justice and fairness, including (1) Text adopted by the Standing Committee, acting non-discrimination; on behalf of the Assembly, on 22 October 2020 (see Doc. 15156, report of the Committee on Legal Affairs 4.3. human responsibility for deci- and Human Rights, rapporteur: Mr Boriss Cilevics). sions, including liability and the availabi- See also Recommendation 2182 (2020). lity of remedies;
Camera dei Deputati — 3 — Senato della Repubblica XVIII LEGISLATURA — DISEGNI DI LEGGE E RELAZIONI — DOCUMENTI — DOC. XII-BIS N. 218 4.4. safety and security; tions raise transparency (and, as a result, responsibility/accountability) issues. 4.5. privacy and data protection. 7.2. AI systems are trained on mas- sive datasets, which may be tainted by 5. The Assembly welcomes Committee of historical bias, including through indirect Ministers’ Recommendation Rec/CM(2020)1 correlation between certain predictor va- on the human rights impact of algorithmic riables and discriminatory practices (such systems, along with its accompanying gui- as postcode being a proxy identifier for an delines on addressing the human rights ethnic community historically subject to impacts of algorithmic systems, and the discriminatory treatment). This is a par- recommendation of the Council of Europe ticular concern in relation to policing and Commissioner for Human Rights on « Un- criminal justice, because of both the pre- boxing Artificial Intelligence: 10 steps to valence of discrimination on various protect Human Rights ». It endorses the grounds in this context and the signifi- general proposals made in these texts for cance of decisions that may be taken. The application also in the area of policing and apparent mechanical objectivity of AI may criminal justice systems. obscure this bias (« techwashing »), rein- 6. The Assembly notes that a large force and even perpetuate it. Certain AI number of applications of AI for use by techniques may not be readily amenable to the police and criminal justice systems challenge by subjects of their applica- have been developed around the world. tion. Such considerations raise issues of Some of these have been used or their justice and fairness. introduction is being considered in Council of Europe member States. They 7.3. Resource constraints, time pres- include facial recognition, predictive poli- sure, lack of understanding, and deference cing, the identification of potential victims to or reluctance to deviate from the re- of crime, risk assessment in decision- commendations of an AI system may lead making on remand, sentencing and parole, police officers and judges to become overly and identification of ’cold cases’ that could reliant on such systems, in effect abdica- now be solved using modern forensic tech- ting their professional responsibilities. nology. Such considerations raise issues of respon- 7. The Assembly finds that there are sibility for decision-making. many ways in which the use of AI in policing and criminal justice systems may 7.4. These considerations also affect be inconsistent with the above-mentioned one another. Lack of transparency in an core ethical principles. Of particular con- AI application reduces the ability of hu- cern are the following: man users to take fully informed deci- sions. Lack of transparency and uncertain 7.1. AI systems may be provided by human responsibility undermine the abi- private companies, which may rely on lity of oversight and remedial mechanisms their intellectual property rights to deny to ensure justice and fairness. access to the source code. The company may even acquire ownership of data being 7.5. The application of AI systems in processed by the system, to the detriment separate but related contexts, especially by of the public body that employs its servi- different agencies relying sequentially on ces. The users and subjects of a system one another’s work, may have unexpected, may not be given the information or even unforeseeable cumulative impacts. explanations necessary to have a basic understanding of its operation. Certain 7.6. The addition of AI-based ele- processes involved in the operation of an ments to existing technology may also have AI system may not be fully penetrable to consequences of unforeseen or unintended human understanding. Such considera- gravity.
Camera dei Deputati — 4 — Senato della Repubblica XVIII LEGISLATURA — DISEGNI DI LEGGE E RELAZIONI — DOCUMENTI — DOC. XII-BIS N. 218 8. The Assembly concludes that, whilst 9.7. ensure that every new application the use of AI in policing and criminal of AI is justified, its purpose specified and justice systems may have significant bene- its effectiveness confirmed before being fits if it is properly regulated, it risks brought into operation, taking into ac- having a particularly serious impact on count the particular operational context; human rights if it is not. 9. The Assembly therefore calls upon 9.8. conduct initial and periodic, member States, in the context of policing transparent human rights impact asses- and criminal justice systems, to: sments of AI applications, to assess, amongst other things, privacy and data 9.1. adopt a national legal framework protection issues, risks of bias/discrimina- to regulate the use of AI, based on the tion and the consequences for the indivi- core ethical principles mentioned above; dual of decisions based on the AI’s ope- 9.2. maintain a register of all AI ration, with particular attention to the applications in use in the public sector situation of minorities and vulnerable and and refer to this when considering new disadvantaged groups; applications, so as to identify and evaluate 9.9. ensure that the essential deci- possible cumulative impacts; sion-making processes of AI applications 9.3. ensure that AI serves overall are explicable to their users and those policy goals, and that policy goals are not affected by their operation; limited to areas where AI can be applied; 9.10. only implement AI applications 9.4. ensure that there is a sufficient that can be scrutinised and tested from legal basis for every AI application and for within the place of operation; the processing of the relevant data; 9.11. carefully consider the possible 9.5. ensure that all public bodies consequences of adding AI-based elements implementing AI applications have inter- to existing technologies; nal expertise able to evaluate and advise on the introduction, operation and impact 9.12. establish effective, independent of such systems; ethical oversight mechanisms for the in- troduction and operation of AI systems; 9.6. meaningfully consult the public, including civil society organisations and 9.13. ensure that the introduction, community representatives, before intro- operation and use of AI applications can ducing AI applications; be subject to effective judicial review.
Camera dei Deputati — 5 — Senato della Repubblica XVIII LEGISLATURA — DISEGNI DI LEGGE E RELAZIONI — DOCUMENTI — DOC. XII-BIS N. 218 ASSEMBLÉE PARLEMENTAIRE DU CONSEIL DE L’EUROPE RÉSOLUTION 2342 (2020) (1) Version provisoire Justice par algorithme – le rôle de l’intelligence artificielle dans les systèmes de police et de justice pénale ASSEMBLÉE PARLEMENTAIRE, physique et même à la force létale. Ce n’est pas un hasard si le droit internatio- 1. On trouve désormais des applications nal des droits de l’homme impose le de l’intelligence artificielle (IA) dans de contrôle juridictionnel de tous ces pou- nombreuses sphères de l’activité humaine, voirs, c’est-à-dire un contrôle effectif, de la recherche pharmaceutique aux indépendant et impartial de l’exercice, par médias sociaux, de l’agriculture aux achats les autorités, de leurs compétences en en ligne, du diagnostic médical à la fi- droit pénal qui peuvent donner lieu à une nance et de la composition musicale à la profonde ingérence dans les droits de justice pénale. Elles sont de plus en plus l’homme fondamentaux. L’introduction puissantes et influentes et les citoyens d’éléments non humains dans la prise de ignorent bien souvent quand, où et com- décision au sein du système de justice ment elles sont utilisées. pénale peut donc présenter des risques 2. Le système de justice pénale re- particuliers. présente l’un des principaux domaines de compétence de l’État: assurer l’ordre pu- 3. Si l’on souhaite que les citoyens blic, prévenir les violations de divers droits acceptent l’utilisation de l’IA et jouissent fondamentaux et déceler les infractions des avantages qu’elle pourrait présenter, pénales, enquêter à leur sujet, poursuivre ils doivent avoir confiance dans le fait que leurs auteurs et les sanctionner. Il confère tout risque est géré de manière satisfai- aux autorités d’importants pouvoirs intru- sante. Si l’IA doit être mise en place avec sifs et coercitifs, notamment la surveil- le consentement éclairé du public, comme lance, l’arrestation, la perquisition et la on peut s’y attendre dans une démocratie, saisie, la détention et le recours à la force alors une réglementation efficace et pro- portionnée est nécessaire. 4. La réglementation de l’IA, qu’il s’a- (1) Texte adopté par la Commission permanente, gisse d’une autorégulation volontaire ou de agissant au nom de l’Assemblée, le 22 octobre 2020 dispositions juridiques obligatoires, doit (voir Doc. 15156, rapport de la Commission des reposer sur des principes éthiques fonda- questions juridiques et des droits de l’homme, rap- mentaux universellement admis et appli- porteur: M. Boriss Cilevics). cables. L’Assemblée parlementaire con- Voir également la Recommandation 2182 (2020). sidère que ces principes peuvent être re-
Camera dei Deputati — 6 — Senato della Repubblica XVIII LEGISLATURA — DISEGNI DI LEGGE E RELAZIONI — DOCUMENTI — DOC. XII-BIS N. 218 groupés dans les grandes catégories sui- breux égards incompatible avec les prin- vantes: cipes éthiques fondamentaux mentionnés ci-dessus. Les situations suivantes sont 4.1. la transparence, y compris l’ac- particulièrement préoccupantes: cessibilité et l’explicabilité; 7.1. Les systèmes d’IA peuvent être 4.2. la justice et l’équité, y compris la fournis par des entreprises privées, qui non-discrimination; peuvent invoquer leurs droits de propriété 4.3. la prise de décision par une intellectuelle pour refuser l’accès au code personne, qui en est responsable, et la source. Ces entreprises peuvent même ac- mise à disposition de voies de recours; quérir la propriété des données traitées par le système, au détriment de l’institu- 4.4. la sûreté et la sécurité; tion publique qui fait appel à leurs ser- vices. Les utilisateurs et les sujets d’un 4.5. le respect de la vie privée et la système peuvent ne pas disposer des in- protection des données. formations ou des explications nécessaires pour comprendre de manière élémentaire 5. L’Assemblée se félicite de la Recom- son fonctionnement. Il arrive que l’être mandation Rec/CM(2020)1 du Comité des humain ne soit pas en mesure de com- Ministres sur les impacts des systèmes prendre certains processus qui intervien- algorithmiques sur les droits de l’homme, nent dans le fonctionnement d’un système complétée par ses lignes directrices sur le d’IA. De telles considérations posent la traitement des impacts sur les droits de question de la transparence (et, par l’homme des systèmes algorithmiques, conséquent, de la responsabilité/de l’obli- ainsi que de la recommandation de la gation de rendre des comptes). Commissaire aux droits de l’homme du Conseil de l’Europe intitulée « Décoder 7.2. Les systèmes d’IA sont formés à l’intelligence artificielle: 10 mesures pour partir d’énormes quantités de données, qui protéger les droits de l’homme ». L’Assem- peuvent être entachées de préjugés de blée approuve les propositions générales longue date, notamment par une corréla- énoncées dans ces textes qui s’appliquent tion indirecte entre certaines variables également dans le domaine des systèmes prédictives et des pratiques discriminatoi- de police et de justice pénale. res (comme l’utilisation du code postal 6. L’Assemblée observe qu’un nombre pour identifier une communauté ethnique important d’applications de l’IA à l’usage traditionnellement soumise à un traite- des systèmes de police et de justice pénale ment discriminatoire). Cette situation est ont été développées à travers le monde. particulièrement préoccupante dans les Certaines d’entre elles sont utilisées dans domaines de la police et de la justice les États membres du Conseil de l’Europe, pénale, en raison à la fois de la prévalence ou leur déploiement y est envisagé. Ces de la discrimination fondée sur divers applications englobent notamment la re- motifs dans ce contexte et de l’importance connaissance faciale, la police prédictive, des décisions qui peuvent être prises. L’ap- l’identification de victimes potentielles parente objectivité mécanique de l’IA peut d’actes criminels, l’évaluation des risques masquer ces préjugés (techwashing), les en matière de détention provisoire, de renforcer, voire les perpétuer. Certaines peine prononcée et de libération condi- techniques d’IA ne sont pas aisément con- tionnelle, ou encore l’identification d’affai- testables par les personnes concernées par res non résolues qui pourraient l’être leur application. De telles considérations aujourd’hui grâce aux technologies moder- soulèvent la question de la justice et de nes de criminalistique. l’équité. 7. L’Assemblée considère que l’utilisa- tion de l’IA dans les systèmes de police et 7.3. Les contraintes de ressources ou de justice pénale risque d’être à de nom- de temps, le manque de compréhension, et
Camera dei Deputati — 7 — Senato della Repubblica XVIII LEGISLATURA — DISEGNI DI LEGGE E RELAZIONI — DOCUMENTI — DOC. XII-BIS N. 218 la déférence aux recommandations d’un tifier et à évaluer les effets cumulatifs système d’IA ou la réticence à s’en écarter éventuels; peuvent placer les fonctionnaires de police 9.3. à s’assurer que l’IA sert des et les juges dans une situation d’extrême objectifs politiques généraux et que ces dépendance vis-à-vis de ces systèmes, qui objectifs ne se limitent pas aux domaines les conduit à abdiquer leurs responsabi- dans lesquels l’IA peut être appliquée; lités professionnelles. De telles considéra- tions soulèvent la question de la respon- 9.4. à veiller à ce qu’il existe un sabilité de la prise de décision. fondement juridique suffisant pour chaque application d’IA et pour le traitement des 7.4. Ces considérations ont également données pertinentes; une incidence les unes sur les autres. Le manque de transparence d’une application 9.5. à garantir que toutes les institu- d’IA réduit la capacité des utilisateurs tions publiques qui mettent en ouvre des humains à prendre des décisions en toute applications d’IA disposent d’une expertise connaissance de cause. Ce manque de interne qui leur permet d’évaluer la mise transparence et l’existence d’une respon- en place, le fonctionnement et l’incidence sabilité humaine incertaine compromet- de tels systèmes et de dispenser des con- tent la capacité des mécanismes de con- seils en la matière; trôle et de recours à garantir la justice et 9.6. à consulter les citoyens de ma- l’équité. nière significative, y compris les organisa- 7.5. L’application de systèmes d’IA tions de la société civile et les représen- dans des contextes distincts mais liés, en tants des communautés, avant de mettre particulier par des institutions différentes en place des applications d’IA; qui s’appuient successivement sur le tra- 9.7. à s’assurer que toute nouvelle vail des autres, peut avoir des effets cu- application d’IA est justifiée, sa finalité mulatifs inattendus, voire imprévisibles. précisée et son efficacité confirmée avant 7.6. De même, l’ajout d’éléments sa mise en service, en fonction du contexte basés sur l’IA aux technologies existantes opérationnel particulier; peut avoir des conséquences d’une gravité 9.8. à procéder à des évaluations imprévue ou non intentionnelle. d’impact transparentes des applications d’IA sur les droits de l’homme, initiale- 8. L’Assemblée conclut que, si l’utilisa- ment et périodiquement, afin d’analyser, tion de l’IA dans les systèmes de police et entre autres, les questions de respect de la de justice pénale présente des avantages vie privée et de protection des données, les importants lorsqu’elle est correctement risques de préjugés et de discrimination et réglementée, elle peut avoir une incidence les conséquences pour les individus des particulièrement grave sur les droits de décisions prises à l’aide de l’IA, en accor- l’homme dans le cas contraire. dant une attention particulière à la situa- 9. Par conséquent, pour ce qui est des tion des minorités et des groupes vulnéra- systèmes de police et de justice pénale, bles et défavorisés; l’Assemblée appelle les États membres: 9.9. à veiller à ce que les processus 9.1. à adopter un cadre juridique décisionnels essentiels des applications national pour réglementer l’utilisation de d’IA soient expliqués à leurs utilisateurs et l’IA, sur la base des principes éthiques aux personnes concernées par leur mise en fondamentaux mentionnés ci-dessus; service; 9.2. à tenir un registre de toutes les 9.10. à ne mettre en ouvre que les applications d’IA utilisées dans le secteur applications d’IA qui peuvent être exa- public et à s’y référer lors de l’examen de minées et testées sur leur lieu d’exploita- nouvelles applications, de manière à iden- tion;
Camera dei Deputati — 8 — Senato della Repubblica XVIII LEGISLATURA — DISEGNI DI LEGGE E RELAZIONI — DOCUMENTI — DOC. XII-BIS N. 218 9.11. à examiner avec soin les indépendants pour la mise en place et conséquences possibles de l’ajout l’exploitation des systèmes d’IA; d’éléments basés sur l’IA aux technologies 9.13. à veiller à ce que la mise en existantes; place, l’exploitation et l’utilisation des ap- 9.12. à mettre en place des mécani- plications d’IA puissent faire l’objet d’un smes de contrôle éthique efficaces et contrôle judiciaire efficace.
Camera dei Deputati — 9 — Senato della Repubblica XVIII LEGISLATURA — DISEGNI DI LEGGE E RELAZIONI — DOCUMENTI — DOC. XII-BIS N. 218 ASSEMBLEA PARLAMENTARE DEL CONSIGLIO D’EUROPA RISOLUZIONE 2342 (2020) Versione provvisoria Giustizia tramite algoritmo – il ruolo dell’intelligenza artificiale nei sistemi di polizia e giustizia penale ASSEMBLEA PARLAMENTARE, nei diritti umani fondamentali. L’introdu- zione di elementi non umani nell’assun- 1. Esistono ormai applicazioni dell’in- zione di decisioni nel sistema di giustizia telligenza artificiale (IA) sempre più po- penale può quindi presentare rischi spe- tenti e influenti nelle numerose sfere del- cifici. l’attività umana, dalla ricerca farmaceu- 3. Se si vuole che accettino l’utilizzo tica ai social media, dall’agricoltura agli dell’IA e traggano utilità dai vantaggi che acquisti online, dalla diagnostica medica essa potrebbe offrire, i cittadini devono alla finanza e dalla composizione musicale avere fiducia che qualsiasi rischio è gestito alla giustizia penale. Queste applicazioni in maniera soddisfacente. Se l’IA deve sono sempre più potenti e influenti e i essere introdotta con il consenso infor- cittadini ignorano molto spesso quando, mato dell’opinione pubblica, come è giusto dove e come sono utilizzate. che sia in una democrazia, allora è ne- 2. Il sistema della giustizia penale rap- cessaria una regolamentazione efficace e presenta uno dei principali ambiti di com- proporzionata. petenza dello Stato: assicurare l’ordine 4. La regolamentazione dell’IA, che si pubblico, prevenire le violazioni di diversi tratti di un’autoregolamentazione volonta- diritti fondamentali e scoprire le infra- ria o di disposizioni giuridiche obbligato- zioni penali, portare avanti indagini, per- rie, deve fondarsi su principi etici fonda- seguire gli autori e sanzionarli. Conferisce mentali, universalmente riconosciuti e ap- alle autorità importanti poteri intrusivi e plicabili. L’Assemblea parlamentare ritiene coercitivi, in particolare il controllo, l’ar- che questi principi possano essere rag- resto, la perquisizione e il sequestro, la gruppati nelle seguenti grandi categorie: detenzione e il ricorso alla forza fisica e anche alla forza letale. Non è un caso se 4.1. la trasparenza, compresa l’acces- il diritto internazionale dei diritti umani sibilità e la spiegabilità; impone un controllo giudiziario su tutti 4.2. la giustizia e l’equità, compresa questi poteri, cioè un controllo effettivo, la non discriminazione; indipendente e imparziale dell’esercizio, da parte delle autorità, di quelle compe- 4.3. l’assunzione di decisioni da parte tenze previste dal diritto penale che pos- di un soggetto, che ne è responsabile, e la sono dar luogo a una profonda ingerenza disponibilità di vie di ricorso;
Camera dei Deputati — 10 — Senato della Repubblica XVIII LEGISLATURA — DISEGNI DI LEGGE E RELAZIONI — DOCUMENTI — DOC. XII-BIS N. 218 4.4. la sicurezza; per comprenderne in maniera elementare il funzionamento. Può succedere che l’es- 4.5. il rispetto della privacy e la sere umano non sia in grado di compren- protezione dei dati. dere alcuni processi che intervengono nel funzionamento di un sistema di IA. Questo 5. L’Assemblea accoglie con favore la tipo di considerazioni sollevano dubbi Raccomandazione Rec/CM(2020)1 del Co- sulla trasparenza (e, di conseguenza, sulla mitato dei Ministri sull’impatto dei sistemi responsabilità/obbligo di riferire); algoritmici sui diritti umani, integrata dalle linee guida sul trattamento dell’in- 7.2. i sistemi di IA si formano a dicidenza sui diritti umani dei sistemi partire da enormi quantità di dati, che algoritmici, nonché la Raccomandazione possono essere contaminati da vecchi pre- della Commissaria per i diritti umani del giudizi, in particolare una correlazione Consiglio d’Europa intitolata « Decodifi- indiretta tra alcune variabili predittive e care l’intelligenza artificiale: 10 misure per pratiche discriminatorie (come l’utilizzo proteggere i diritti umani ». L’Assemblea del codice postale per identificare una approva le proposte di carattere generale comunità etnica tradizionalmente sottopo- enunciate in questi documenti che si ap- sta a un trattamento discriminatorio). Que- plicano anche ai sistemi di polizia e giu- sta situazione è particolarmente preoccu- stizia penale. pante nei settori delle forze dell’ordine e 6. L’Assemblea osserva che nel mondo della giustizia penale, a causa della preva- sono state sviluppate numerose applica- lenza in questo contesto della discrimina- zioni dell’IA in uso ai sistemi di polizia e zione fondata su diverse motivazioni e del- giustizia penale. Alcune tra queste sono l’importanza delle decisioni da prendere. utilizzate negli Stati membri del Consiglio L’apparente obiettività meccanica dell’IA d’Europa o ne è prevista l’introduzione. può mascherare pregiudizi (techwashing), Queste applicazioni comprendono il rico- rafforzarli e addirittura perpetuarli. Al- noscimento facciale, la polizia predittiva, cune tecniche di IA non sono facilmente l’identificazione di potenziali vittime di contestabili da parte delle persone interes- atti criminali, la valutazione dei rischi in sate dalla loro applicazioni. Questo tipo di materia di custodia cautelare, di pena considerazioni sollevano la questione della irrogata e di liberazione condizionale, o giustizia e dell’equità; ancora l’individuazione di casi irrisolti che oggi potrebbero esserlo grazie alle mo- 7.3. i vincoli in termini di risorse o di derne tecnologie di criminalistica. tempo, la mancanza di comprensione, la 7. L’Assemblea ritiene che l’utilizzo deferenza rispetto alle raccomandazioni di dell’IA nei sistemi di polizia e giustizia un sistema di IA o la reticenza a disco- penale rischia di essere, sotto molti aspetti, starsene possono mettere gli agenti delle incompatibile con i principi etici fonda- forze dell’ordine o i giudici in una situa- mentali precedentemente menzionati. Le zione di estrema dipendenza da questi seguenti situazioni sono particolarmente sistemi, portandoli ad abdicare alle pro- preoccupanti: prie responsabilità professionali. Questo tipo di considerazioni sollevano la que- 7.1. i sistemi di IA possono essere stione della responsabilità dell’assunzione forniti da imprese private, che possono di decisioni; evocare i diritti di proprietà intellettuale per rifiutare l’accesso al codice sorgente. 7.4. tali considerazioni hanno anche Queste imprese possono anche acquisire la un’incidenza le une sulle altre. La man- proprietà dei dati elaborati dal sistema, a canza di trasparenza di un’applicazione di danno dell’istituzione pubblica che si av- IA riduce la capacità degli utilizzatori vale dei loro servizi. Gli utenti e i soggetti umani di prendere decisioni con cogni- di un sistema possono non disporre delle zione di causa. La mancanza di traspa- informazioni e delle spiegazioni necessarie renza e una responsabilità umana incerta
Camera dei Deputati — 11 — Senato della Repubblica XVIII LEGISLATURA — DISEGNI DI LEGGE E RELAZIONI — DOCUMENTI — DOC. XII-BIS N. 218 compromettono la capacità dei meccani- applicazioni di IA dispongano di expertise smi di controllo e di ricorso di garantire interna che permetta loro di valutare l’at- giustizia ed equità; tuazione, il funzionamento e l’incidenza di questi sistemi e offra consulenza in ma- 7.5. l’applicazione dei sistemi di IA in teria; contesti distinti ma correlati, in partico- lare da parte di istituzioni diverse che si 9.6. di consultare i cittadini in ma- appoggiano successivamente sul lavoro de- niera significativa, ivi comprese le orga- gli altri, può avere effetti cumulativi inat- nizzazioni della società civile e i rappre- tesi, se non imprevedibili; sentanti delle comunità, prima di intro- durre applicazioni di IA; 7.6. allo stesso modo, l’aggiunta di elementi basati sull’IA alle tecnologie esi- 9.7. di assicurarsi che qualsiasi nuova stenti può avere conseguenze di una gra- applicazione di IA sia giustificata, la sua vità imprevista o non intenzionale. finalità precisata e la sua efficacia confer- mata prima che entri in servizio, in fun- 8. L’Assemblea conclude che, se l’uti- zione dello specifico contesto operativo; lizzo dell’IA nei sistemi di polizia e giu- 9.8. di procedere a valutazioni di stizia penale presenta notevoli vantaggi impatto trasparenti delle applicazioni di quando è correttamente disciplinato, in IA sui diritti umani, inizialmente e perio- caso contrario può avere un’incidenza par- dicamente, per analizzare, tra l’altro, le ticolarmente grave sui diritti umani. questioni del rispetto della privacy e della 9. Di conseguenza, per quanto riguarda protezione dati, i rischi di pregiudizi e i sistemi di polizia e giustizia penale, discriminazione e le conseguenze per gli l’Assemblea chiede agli Stati membri: individui di decisioni assunte con l’aiuto dell’IA, prestando particolare attenzione 9.1. di adottare un quadro giuridico alla situazione delle minoranze e dei nazionale per disciplinare l’utilizzo dell’IA, gruppi vulnerabili e sfavoriti; sulla base dei principi etici fondamentali precedentemente citati; 9.9. di assicurarsi che i processi de- cisionali essenziali delle applicazioni di IA 9.2. di tenere un registro di tutte le siano spiegati agli utenti e alle persone applicazioni di IA utilizzate nel settore interessate dalla loro introduzione; pubblico e di consultarlo quando si esa- minano nuove applicazioni, in modo da 9.10. di introdurre applicazioni di IA identificare e valutare gli eventuali effetti che possano essere esaminate e testate sul cumulativi; luogo di utilizzo; 9.11. di esaminare con cura le pos- 9.3. di assicurarsi che l’IA serva sibili conseguenze derivanti dall’aggiunta obiettivi politici generali e che questi di elementi basati sull’IA alle tecnologie obiettivi non si limitino ai settori nei quali esistenti; può essere applicata l’IA; 9.12. di introdurre meccanismi di 9.4. di garantire l’esistenza di un controllo etico efficaci e indipendenti per fondamento giuridico sufficiente per ogni l’introduzione e l’utilizzo dei sistemi di IA; applicazione di IA e per il trattamento dei dati pertinenti; 9.13. di assicurarsi che l’introdu- zione, l’utilizzo e la gestione delle appli- 9.5. di garantire che tutte le istitu- cazioni di IA possano essere sottoposte a zioni pubbliche che introducono queste un controllo giudiziario efficace.
*180122126030* *180122126030*
You can also read