Aziende e Dintorni

Fatti e persone del mondo del lavoro

Scopri di più

Le prime indicazioni sugli usi proibiti dell’IA nel rapporto di lavoro provenienti dalla Commissione europea

Stabilire un'etica comune sull'uso della IA

 

Il 4 febbraio 2025, la Commissione Europea ha pubblicato le prime linee guida riguardanti le pratiche vietate dell’intelligenza artificiale (IA) nel contesto lavorativo, in conformità all’articolo 5 del Regolamento (UE) 2024/1689, noto come AI Act. Queste indicazioni, sebbene non vincolanti, rappresentano un punto di riferimento fondamentale per aziende, PMI, CEO, imprenditori, manager e responsabili delle risorse umane nell’adozione e nell’utilizzo etico dell’IA in ambito professionale.

 

Contesto normativo dell’AI Act

L’AI Act è stato concepito per creare un quadro normativo armonizzato sull’uso dell’intelligenza artificiale all’interno dell’Unione Europea. Uno degli obiettivi principali è identificare e vietare pratiche considerate ad alto rischio o potenzialmente dannose per i diritti fondamentali e i valori dell’Unione. Tra queste pratiche proibite rientrano:

  • Tecnologie che distorcono o manipolano il comportamento umano.
  • Sistemi di social scoring che valutano e classificano individui basandosi su comportamenti e caratteristiche personali, soprattutto se tali valutazioni portano a trattamenti ingiustificati o sproporzionati.
  • Sistemi utilizzati per prevedere il rischio di commissione di reati da parte di una persona fisica.

Divieto di inferenza delle emozioni sul luogo di lavoro

Di particolare rilevanza per il settore delle risorse umane è il divieto specifico riguardante l’uso di sistemi di IA progettati per inferire le emozioni dei lavoratori sul luogo di lavoro. L’articolo 5, paragrafo 1, lettera f) del Regolamento stabilisce che è vietato immettere sul mercato o utilizzare sistemi di IA per dedurre le emozioni di una persona fisica nell’ambito lavorativo, a meno che tali sistemi non siano destinati a scopi medici o di sicurezza.

Questo divieto nasce dalla preoccupazione che tali tecnologie possano violare la privacy dei lavoratori, essere inaffidabili o portare a discriminazioni. 

Ad esempio, sistemi che tentano di determinare se un dipendente è infelice, triste o arrabbiato rientrano in questa categoria proibita. Tuttavia, strumenti progettati per rilevare stati fisici come affaticamento o dolore, utilizzati per garantire la sicurezza sul lavoro, non sono soggetti a questo divieto.

 

Definizione estesa di “luogo di lavoro”

Le linee guida della Commissione adottano una definizione ampia di “luogo di lavoro”, includendo sia ambienti fisici che virtuali. Questo significa che il divieto si applica non solo ai dipendenti tradizionali, ma anche a lavoratori da remoto, agli autonomi, ai tirocinanti, ai volontari e persino ai candidati a posizioni lavorative. 

Ad esempio, l’uso di tecnologie di IA per inferire le emozioni durante processi di selezione del personale o periodi di prova è espressamente vietato.

I sistemi IA raccolgono enormi quantità di dati, sollevando preoccupazioni sulla riservatezza e sul possibile uso di algoritmi con bias discriminatori, anche in merito all’utilizzo dell’intelligenza artificiale nella fase di recruiting

 

Eccezioni al divieto: usi medici e di sicurezza

Sono previste eccezioni al divieto per sistemi di IA utilizzati a fini medici o per garantire la sicurezza. Tuttavia, queste eccezioni sono interpretate in modo restrittivo. L’uso di sistemi per monitorare lo stress generale dei dipendenti o per cogliere i segnali di burnout, per esempio, non rientra nelle eccezioni per la sicurezza. 

La nozione di “sicurezza” si riferisce esclusivamente alla protezione della vita e della salute dei lavoratori, escludendo la tutela del patrimonio aziendale. Pertanto, l’adozione di tali sistemi deve essere limitata a situazioni di stretta necessità, con limiti temporali e applicativi ben definiti, garantendo che i dati raccolti non vengano utilizzati per scopi diversi da quelli legittimi e specifici.

 

Implicazioni per le aziende italiane

Le imprese italiane devono considerare non solo il Regolamento europeo, ma anche la normativa nazionale in materia di protezione dei dati personali (come il d.lgs. n. 196/2003) e le disposizioni dello Statuto dei Lavoratori. In particolare, l’articolo 8 dello Statuto vieta indagini sulle opinioni personali del lavoratore non rilevanti ai fini professionali, mentre l’articolo 4 disciplina i controlli a distanza.

Per esempio, un’azienda italiana ha autorizzato l’introduzione di telecamere intelligenti per riconoscere situazioni di pericolo o la presenza di un uomo a terra, dimostrando come l’IA possa essere implementata nel rispetto delle normative vigenti e con il consenso delle parti coinvolte.

 

Verso un uso etico dell’IA

Le linee guida della Commissione Europea rappresentano un passo cruciale verso un utilizzo etico e responsabile dell’intelligenza artificiale nel contesto lavorativo. Le aziende sono chiamate a valutare attentamente l’adozione di sistemi di IA, assicurandosi che siano conformi alle normative europee e nazionali, rispettando i diritti fondamentali dei lavoratori. 

Un approccio equilibrato e consapevole all’implementazione dell’IA può portare a significativi benefici operativi, garantendo al contempo la tutela e il benessere del personale.

Ti è paciuto questo articolo?

Se vuoi rimanere aggiornato sulle novità del mondo del lavoro, iscriviti a InfoJobs oppure attiva le notifiche.

- -

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *

Contattaci

I nostri consulenti ti consiglieranno le soluzioni InfoJobs più in linea con le tue esigenze.

02 83595065 02 83595065