{"id":34265,"date":"2021-05-27T12:58:20","date_gmt":"2021-05-27T12:58:20","guid":{"rendered":"https:\/\/www.altamirahrm.com\/regolamento-europeo-ia\/"},"modified":"2026-03-30T09:17:16","modified_gmt":"2026-03-30T09:17:16","slug":"regolamento-europeo-ia","status":"publish","type":"post","link":"https:\/\/www.altamirahrm.com\/it\/blog\/regolamento-europeo-ia","title":{"rendered":"Regolamento europeo sull\u2019IA: quale impatto avr\u00e0 sul settore Risorse Umane?"},"content":{"rendered":"<p>Il 21 aprile 2021 \u00e8 stata pubblicata la bozza del <a href=\"https:\/\/digital-strategy.ec.europa.eu\/en\/library\/proposal-regulation-laying-down-harmonised-rules-artificial-intelligence-artificial-intelligence\" rel=\"noopener\" target=\"_blank\" style=\"text-decoration:underline\" title=\"Regolamento UE per l'IA\">Regolamento sull\u2019approccio europeo per l\u2019intelligenza artificiale<\/a> della Commissione Europea.<\/p>\n<p><b>Scopo di questa iniziativa \u00e8 garantire che le applicazioni di IA rispettino la legislazione in materia di diritti fondamentali<\/b>.<\/p>\n<p><b>Ancora oggi, infatti, esiste grande preoccupazione per la complessit\u00e0 e opacit\u00e0 di molti algoritmi di IA, soprattutto in riferimento al cosiddetto problema della black box o scatola nera<\/b>. Spesso, infatti, non c\u2019\u00e8 modo neanche per gli stessi utilizzatori di questa tecnologia di conoscere i criteri utilizzati per prendere una decisione, che potrebbe quindi essere stata causata da errori o pregiudizi.<\/p>\n<p><b>Il regolamento sull&#8217;IA, come successo con il GDPR da cui riprende molte logiche, comporter\u00e0 del lavoro aggiuntivo sia per chi produce questa tecnologia, sia per le aziende che la importano e distribuiscono, sia per le imprese che la utilizzano per il proprio business<\/b>.<\/p>\n<p>Dovranno infatti essere rispettati determinati requisiti pena sanzioni che sembrano essere ancora pi\u00f9 sostanziose che nel GDPR e potranno arrivare fino al 6% del fatturato globale annuo. <\/p>\n<p>Nelle intenzioni della Commissione Europea il regolamento \u2013 unito ad altre iniziative di finanziamento dell\u2019IA \u2013 servir\u00e0 anche a un maggiore sviluppo di questa tecnologia in Europa, per portare il continente a competere con Stati Uniti e Cina.<\/p>\n<p>Il quadro normativo potrebbe contribuire a una maggiore adozione dell\u2019IA in due modi. Da un lato, l\u2019aumento della fiducia far\u00e0 crescere la domanda di questi sistemi nelle imprese e nelle pubbliche amministrazioni. Dall\u2019altro, un regolamento dettagliato e condiviso permetter\u00e0 ai fornitori di IA di accedere a mercati pi\u00f9 grandi.<\/p>\n<p>Va sottolineato ancora una volta che si tratta di una bozza, di un regolamento che per forza di cosa dovr\u00e0 rimanere flessibile per poter regolamentare una tecnologia ancora in continua evoluzione.<\/p>\n<p>Va anche detto che <b>al momento la maggior parte dei produttori non sembrerebbe in grado di soddisfare i criteri impostati<\/b>, soprattutto per i sistemi considerati ad alto rischio, di cui fanno parte diversi algoritmi pensati per il settore Risorse Umane.<\/p>\n<p>Vediamoli pi\u00f9 nel dettaglio<\/p>\n<p><\/p>\n<h2>I sistemi di IA ad alto rischio e il settore HR<\/h2>\n<p><b>L\u2019annex 3 al Regolamento sull\u2019approccio europeo per l\u2019intelligenza artificiale contiene la lista degli algoritmi considerati ad alto rischio, in quanto le decisioni che prendono possono avere un forte impatto sulla vita delle persone<\/b>.<\/p>\n<p>Come detto, ne fanno parte anche sistemi IA pensati per il settore HR e in particolare:<\/p>\n<ul>\n<li><b>Sistemi di IA per il recruiting e in particolare per lo screening e il ranking automatico dei candidati<\/b>.<\/li>\n<li><b>Sistemi di IA per la gestione dei dipendenti, che forniscono suggerimenti su promozioni e licenziamenti e valutazioni sulle performance<\/b>.<\/li>\n<\/ul>\n<p><b>C\u2019\u00e8 poi il tema dei sistemi di rilevazione biometrica<\/b>. Nell\u2019annex 3 si fa riferimento a sistemi pensati per l\u2019identificazione biometrica delle persone in tempo reale e in differita e non \u00e8 chiaro se vi rientrino i sistemi utilizzati dalle aziende per la rilevazione presenze e il controllo accessi. Va ricordato che gi\u00e0 il GDPR e il Garante della privacy in qualche modo scoraggiano l\u2019utilizzo di tali strumenti, dato che permettono di incamerare dati sensibili senza una necessit\u00e0 reale (nella maggior parte dei contesti \u00e8 sufficiente il classico badge).<\/p>\n<p><b>Ad alto rischio potrebbe essere considerati, inoltre, sistemi di IA che determinino i corsi di formazione a cui iscrivere i dipendenti<\/b>.<\/p>\n<p>L\u2019utilizzo di questi strumenti HR di IA da parte delle aziende andr\u00e0 considerato con grande cautela, dato che non saranno soltanto i produttori ma anche gli utilizzatori \u2013 nel caso di organizzazioni \u2013 a dover rispondere ai requisiti richiesti.<\/p>\n<p>I sistemi ad alto rischio sono ritenuti tali quando presentano un rischio alto per uno dei seguenti aspetti:<\/p>\n<ul>\n<li>Rischio per la salute<\/li>\n<li>Rischio per la sicurezza<\/li>\n<li>Rischio per diritti e libert\u00e0 fondamentali<\/li>\n<\/ul>\n<p>Di conseguenza, <b>produttori e utilizzatori devono mettere in campo una serie di misure tecniche e organizzative per limitare tale rischio<\/b>.<\/p>\n<p>Devono, in particolare, sottostare a questi requisiti.<\/p>\n<p><\/p>\n<h3>Data governance<\/h3>\n<p><b>Gli algoritmi dovranno essere sottoposti a una serie di attivit\u00e0 durante le fasi di <i>training<\/i>, <i>validation <\/i>e <i>testing <\/i>dell\u2019algoritmo per accertarsi che funzionino come previsto e in modo sicuro<\/b>.<\/p>\n<p>In fase di training bisogna focalizzarsi sul database di dati e alla definizione delle caratteristiche e attributi che determinano l\u2019output dell\u2019applicazione. Il database deve essere rilevante e pertinente agli scopi del sistema, completo e privo di errori.<\/p>\n<p>Durante la fase di validation va posta attenzione sui fenomeni di <a href=\"https:\/\/it.wikipedia.org\/wiki\/Overfitting\" style=\"text-decoration:underline\" title=\"definizione overfitting\" rel=\"noopener\" target=\"_blank\">overfitting<\/a>. Se si d\u00e0 troppo valore a dati di training ovvero a eccezioni alla regola statistica, infatti, l\u2019algoritmo finir\u00e0 per non generalizzare abbastanza.<\/p>\n<p>Durante la fase di testing, infine, si dovranno trovare conferme sulle prestazioni attese dal sistema.<\/p>\n<p><b>Un ultimo aspetto fondamentale di questa fase \u00e8 la messa a punto dell\u2019algoritmo<\/b>. Per assicurarsi che dia risposte coerenti con i soggetti o gruppo di soggetti sui quali verr\u00e0 utilizzato, l\u2019algoritmo dovr\u00e0 essere addestrato su dati che prendano in considerazione le caratteristiche geografiche, comportamentali e funzionali del contesto sul quale sar\u00e0 applicato. Algoritmi addestrati su enormi database americani, per fare un esempio, non saranno quindi probabilmente adatti a un impiego in Italia.<\/p>\n<p><\/p>\n<h3>Documentazione tecnica<\/h3>\n<p><b>Prima di essere immesso sul mercato, un sistema di Intelligenza Artificiale dovr\u00e0 essere corredato da una esaustiva documentazione che dimostri la conformit\u00e0 del sistema di IA rispetto al regolamento<\/b>.<\/p>\n<p>Questa documentazione, continuamente aggiornata, dovr\u00e0 consentire di capire come sia stato sviluppato l\u2019algoritmo e le sue performance nel ciclo vitale. <\/p>\n<p><\/p>\n<h3>Sistemi di logging<\/h3>\n<p>Le applicazioni HR che sfruttano l\u2019intelligenza artificiale dovranno essere dotate di sistemi di <i>logging <\/i>che registrino gli eventi pi\u00f9 importanti occorsi durante il loro utilizzo, in modo da poter essere monitorati anche dopo il rilascio sul mercato.<\/p>\n<p>I sistemi ad alto rischio dovranno essere in grado di registrare informazioni quali la data e orario di inizio e fine di ogni utilizzo e il database con il quale i dati sono stati messi a confronto.<\/p>\n<p><\/p>\n<h3>Trasparenza<\/h3>\n<p>I sistemi di IA ad alto rischio devono essere disegnati e sviluppati in un\u2019ottica di trasparenza. <b>La logica con la quale prendono le decisioni deve<\/b> quindi <b>essere comprensibile ai suoi utenti<\/b>.<\/p>\n<p>Questo vuol dire, per esempio, che <b>i motivi di esclusione di un candidato da un processo di selezione devono essere chiari e ricostruibili per tutti<\/b>.<\/p>\n<p>Altrettanto chiari devono essere i rischi che il sistema comporta per la salute, la sicurezza e le libert\u00e0 fondamentali degli utenti.<\/p>\n<p>L\u2019utilizzo di un linguaggio chiaro \u00e8 un tema ricorrente anche nel GDPR.<\/p>\n<p>\t<\/p>\n<h3>Supervisione umana e formazione<\/h3>\n<p><b>I Sistemi di IA ad alto rischio devono, fin dalla progettazione, prevedere la possibilit\u00e0 di un intervento umano o per lo meno di appellarsi a un intervento umano<\/b>.<\/p>\n<p>Le persone fisiche, insomma, devono essere in grado di controllarne il comportamento.<\/p>\n<p>Ci\u00f2 deve essere reso possibile attraverso una serie di vincoli operativi previsti all\u2019interno del processo decisionale dell\u2019algoritmo che non possono essere ignorati dal sistema.<\/p>\n<p><b>Tutto questo comporta la necessit\u00e0, sia per la pubblica amministrazione che per le aziende, di prevedere e formare personale con le competenze adeguate per intervenire sull\u2019operato del sistema IA quando questo sembra erroneo o discriminatorio o per decidere che il suo utilizzo non sia adeguato alle circostanze<\/b>.<\/p>\n<p>Nel regolamento si menziona addirittura la possibilit\u00e0 di utilizzare un \u201cpulsante d\u2019arresto\u201d o una procedura simile per interrompere il funzionamento del sistema.<\/p>\n<p>Si tratta probabilmente di nuove competenze che dovranno entrare a far parte del bagaglio tecnico dell\u2019ufficio HR, in collaborazione con l\u2019IT aziendale.<\/p>\n<p><\/p>\n<h3>Accuratezza, robustezza e sicurezza informatica<\/h3>\n<p>I sistemi HR di IA devono essere valutati anche in funzione della precisione, correttezza ed equit\u00e0 dell\u2019output algoritmico.<\/p>\n<p>Un sistema deve inoltre offrire una forte resilienza ai suoi stessi limiti, ai suoi errori, guasti, incongruenze e alle situazioni impreviste. Dovr\u00e0 anche disporre di soluzioni di ridondanza come backup e piani di sicurezza per ridurre e mitigare i rischi da questi danni. La stessa resilienza dovr\u00e0 essere dimostrata anche contro azioni dannose che possono compromettere la sicurezza e provocare comportamenti dannosi.<\/p>\n<p>C\u2019\u00e8 poi il tema della sicurezza informatica e quindi della resilienza a minacce informatiche \u2013 la <i>cybersecurity<\/i>. In particolare occorrer\u00e0 fare attenzione al <i>data poisoning<\/i>, ovvero al rischio che i dati, soprattutto quelli di training, possano essere \u201cinquinati\u201d.<\/p>\n<p>Tutto questo <b>serve a garantire che i sistemi ad alto rischio generino un output corretto che non sia distorto da minacce interne ed esterne<\/b>.<\/p>\n<p><\/p>\n<h3>Conclusioni<\/h3>\n<p><b>La bozza del regolamento, atteso in forma definitiva nei prossimi anni, solleva l\u2019attenzione sui problemi etici e di opacit\u00e0 che hanno dominato le discussioni sull\u2019intelligenza artificiale e hanno spinto molte aziende a fare marcia indietro e dismettere sistemi di questo tipo nell\u2019attesa di una tecnologia pi\u00f9 matura e trasparente.<\/p>\n<p>In futuro le aziende UE dovranno quindi avere l&#8217;accortezza di scegliere fornitori che rispettino il regolamento e valutare quanto sia opportuno utilizzare sistemi HR di IA per esigenze che non lo richiedono strettamente, esponendosi cos\u00ec a rischi inutili<\/b>.<\/p>\n<p><\/p>\n<p style=\"font-size:10px\"><i>Credito fotografico: \u00a9thodonal\/Adobe Stock<\/i><\/p>\n","protected":false},"excerpt":{"rendered":"<p>Il 21 aprile 2021 \u00e8 stata pubblicata la bozza del Regolamento sull\u2019approccio europeo per l\u2019intelligenza artificiale della Commissione Europea. Scopo di questa iniziativa \u00e8 garantire che le applicazioni di IA rispettino la legislazione in materia di diritti fondamentali. Ancora oggi, infatti, esiste grande preoccupazione per la complessit\u00e0 e opacit\u00e0 di molti algoritmi di IA, soprattutto [&hellip;]<\/p>\n","protected":false},"author":39,"featured_media":33074,"comment_status":"closed","ping_status":"closed","sticky":false,"template":"","format":"standard","meta":{"_acf_changed":false,"footnotes":""},"categories":[372,373,374,365],"tags":[],"class_list":["post-34265","post","type-post","status-publish","format-standard","has-post-thumbnail","hentry","category-gestione-del-personale","category-presenze-e-assenze","category-ricerca-e-selezione","category-hr-online-it"],"acf":[],"_links":{"self":[{"href":"https:\/\/www.altamirahrm.com\/it\/wp-json\/wp\/v2\/posts\/34265","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/www.altamirahrm.com\/it\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/www.altamirahrm.com\/it\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/www.altamirahrm.com\/it\/wp-json\/wp\/v2\/users\/39"}],"replies":[{"embeddable":true,"href":"https:\/\/www.altamirahrm.com\/it\/wp-json\/wp\/v2\/comments?post=34265"}],"version-history":[{"count":1,"href":"https:\/\/www.altamirahrm.com\/it\/wp-json\/wp\/v2\/posts\/34265\/revisions"}],"predecessor-version":[{"id":63072,"href":"https:\/\/www.altamirahrm.com\/it\/wp-json\/wp\/v2\/posts\/34265\/revisions\/63072"}],"wp:featuredmedia":[{"embeddable":true,"href":"https:\/\/www.altamirahrm.com\/it\/wp-json\/wp\/v2\/media\/33074"}],"wp:attachment":[{"href":"https:\/\/www.altamirahrm.com\/it\/wp-json\/wp\/v2\/media?parent=34265"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/www.altamirahrm.com\/it\/wp-json\/wp\/v2\/categories?post=34265"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/www.altamirahrm.com\/it\/wp-json\/wp\/v2\/tags?post=34265"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}