top of page

Algoritmi sotto controllo (la persona algoritmica). Proteggere i diritti fondamentali della persona nell’era dell’IA”.

Quando si parla di intelligenza artificiale (IA), spesso si pensa a tecnologia, dati e potenza di calcolo. Dal punto di vista del diritto costituzionale, però, la questione centrale è un’altra: che fine fa la persona come titolare di diritti, quando viene sempre più descritta e trattata

come un insieme di dati, profili e punteggi? L’IA rischia di trasformare l’essere umano in un oggetto di calcolo: un “profilo” valutato da algoritmi che decidono l’accesso a servizi, lavoro, credito, cure o controlli pubblici. Questo mette alla prova una promessa fondamentale del costituzionalismo moderno: la persona non è un mezzo, ma un fine.


Dalle radici dei diritti umani all’Europa di oggi. L’idea che esistano diritti che precedono lo Stato nasce con il diritto naturale e si consolida nelle grandi dichiarazioni dei diritti e nelle costituzioni moderne. Anche la Costituzione italiana segue questa impostazione: lo Stato non “crea” i diritti fondamentali, ma li riconosce e li tutela, ponendo la persona al centro dell’attenzione (Art. 2 🡪 La Repubblica riconosce e garantisce i diritti inviolabili dell'uomo - Art. 3 🡪 Tutti i cittadini hanno pari dignità sociale [cfr. XIV] e sono eguali davanti alla legge, senza distinzione di sesso, di razza, di lingua, di religione, di opinioni politiche, di condizioni personali e sociali. Art.32🡪 La Repubblica tutela la salute come fondamentale diritto dell'individuo). A livello europeo, questo patrimonio confluisce nella Carta dei diritti fondamentali dell’Unione europea, che raccoglie e rende visibili i principali diritti della persona: dignità, libertà, eguaglianza, solidarietà, cittadinanza e giustizia. Con il Trattato di Lisbona, la Carta è diventata giuridicamente vincolante e oggi rappresenta il punto di riferimento per interpretare anche le norme sull’intelligenza artificiale.


Accanto alla figura tradizionale della persona e del cittadino, la rivoluzione digitale ha fatto emergere una nuova realtà: la “persona algoritmica”. Si tratta dell’individuo così come appare ai sistemi informatici: attraverso dati, comportamenti online, statistiche e punteggi. Questa dimensione non sostituisce formalmente la cittadinanza, ma la condiziona. Due persone uguali davanti alla legge possono essere trattate in modo molto diverso perché hanno profili algoritmici differenti. Il GDPR ha cercato di contenere questo rischio, introducendo diritti collegati alla protezione dei dati personali, il controllo sulla profilazione, il diritto a non subire decisioni totalmente automatizzate. Ciononostante, nella pratica, la distanza tra persona reale e persona “algoritmica” tende ad aumentare


L’intelligenza artificiale non è solo una questione tecnica: è una questione di potere. Nella pubblica amministrazione, gli algoritmi possono influenzare controlli, prestazioni sociali e sicurezza, con il rischio di discriminazioni indirette. Nella sanità, l’IA supporta diagnosi e decisioni cliniche, ma solleva interrogativi su responsabilità, autodeterminazione del paziente e diritto alla salute. Nel lavoro, sistemi automatici selezionano e valutano i lavoratori. Nella democrazia, algoritmi e contenuti generativi incidono sull’informazione, sul dibattito pubblico e sulle elezioni. A tutto questo si aggiunge il ruolo crescente di grandi imprese private, che controllano infrastrutture e modelli di IA e incidono profondamente sui diritti, pur non essendo Stati.


Qual è stata la risposta dell’Unione europea all’intelligenza artificiale? Di fronte ai rischi dell’intelligenza artificiale per le persone e per i diritti fondamentali, l’Unione europea non ha scelto di vietare l’IA, ma di regolarla. Lo ha fatto costruendo un sistema a più livelli, che funziona come una rete di protezione. Questa rete si basa su tre pilastri principali: Il GDPR → protegge i dati delle persone. La Carta dei diritti fondamentali UE → stabilisce i valori e i diritti da rispettare. **L’AI Act → regola concretamente come l’IA può essere usata, in base ai rischi. Il GDPR (Regolamento sulla protezione dei dati personali) è stato il primo grande strumento europeo. Ogni volta che un sistema di IA usa dati personali (nome, immagini, comportamenti, preferenze), Il GDPR garantisce che i dati siano usati in modo lecito e trasparente e che la persona interessata sappia chi usa i suoi dati e perché. Il sistema garantisce che non si possano prendere decisioni solo automatiche che incidono seriamente sulla vita di una persona (es. rifiuto di un prestito o di un lavoro) senza garanzie e che esista sempre un essere umano responsabile. Ricordiamo però che Il GDPR difende la persona come insieme di dati, ma l’IA non lavora solo sui dati: prende decisioni, fa previsioni, classifica le persone. La Carta dei diritti fondamentali: la “Costituzione” europea. La Carta dei diritti fondamentali dell’Unione europea è (virtualmente) il livello più alto di tutela.  Qui si dichiarano i principi fondamentali (dignità umana, eguaglianza, non discriminazione, libertà di espressione e informazione, protezione dei dati personali, diritto a un giudice indipendente). Insomma, apparentemente anche l’intelligenza artificiale dovrebbe rispettare questi valori.  La Carta dei diritti fondamentali è la bussola che orienta tutte le altre regole, compreso l’AI Act. Con l’AI Act, l’Unione europea ha fatto un passo ulteriore: ha creato la prima grande legge sull’intelligenza artificiale. L’idea di base è molto semplice: non tutte le IA sono uguali; più un sistema è pericoloso per le persone, più regole deve rispettare. L’approccio “basato sul rischio”. L’AI Act divide l’IA in categorie: a) Pratiche vietate🡪 Sono inaccettabili, perché ledono direttamente la dignità umana. Esempi: sistemi di controllo o manipolazione psicologica, punteggi sociali delle persone da parte dello Stato. Queste IA non si possono usare. b) Sistemi ad “alto rischio” 🡪 Sono quelli usati in ambiti delicatissimi della vita: sanità, lavoro (assunzioni, valutazioni), credito e banche, scuola, servizi essenziali, pubblica amministrazione. Questi sistemi non sono vietati, ma devono rispettare regole molto rigide: dati di qualità e non discriminatori; trasparenza (sapere che un’IA è usata); controllo umano (l’uomo decide, l’IA assiste); valutazione e gestione dei rischi; responsabilità chiara di chi li usa. L’obiettivo è evitare che decisioni cruciali sulla vita delle persone siano prese da “scatole nere”. c) Altri sistemi Per le IA meno pericolose sono previsti solo obblighi di informazione o quasi nessun impegno. L’Unione europea ha risposto all’intelligenza artificiale costruendo un sistema di regole che protegge i dati, i diritti e la dignità delle persone, ma la vera sfida è evitare che questi diritti diventino solo procedure tecniche, perdendo la loro forza reale di tutela.


La legge italiana 132/2025🡪 La IA al servizio delle persone. L’Italia, seguendo il percorso europeo stabilito dall’AI Act, ha approvato la legge 23 settembre 2025, n. 132. Questa legge inserisce la regolazione dell’intelligenza artificiale nel quadro costituzionale italiano, facendo emergere alcuni principi fondamentali: Antropocentrismo → l’IA deve essere progettata e usata per le persone, non contro o al posto loro. Rispetto dei diritti fondamentali → la dignità, l’eguaglianza, la libertà, il diritto al lavoro, alla salute e alla partecipazione democratica non possono essere sacrificati all’efficienza tecnologica. Controllo umano → l’essere umano resta sempre al centro delle decisioni; l’IA può assistere, ma non decidere autonomamente. L’obiettivo è evitare che la tecnologia “prenda il sopravvento” sui diritti e sulle responsabilità della persona. Applicazioni concrete. La legge affronta l’uso dell’IA in diversi ambiti cruciali della vita sociale e istituzionale. a) Sanità L’IA può supportare diagnosi, analisi di immagini, triage o medicina personalizzata. Il medico resta responsabile: deve valutare personalmente i dati e le decisioni dell’IA. Il paziente deve essere informato se l’IA è utilizzata nel processo decisionale. Questo garantisce che l’IA migliori le cure senza sostituire il giudizio umano, rispettando i diritti dei pazienti. b) Lavoro. I datori di lavoro devono informare i lavoratori quando strumenti di IA influiscono su gestione, valutazione o selezione del personale. L’uso dell’IA deve tutelare l’integrità fisica e psicologica dei lavoratori e migliorare le condizioni lavorative. È previsto un percorso di alfabetizzazione digitale per lavoratori e datori di lavoro, così che tutti comprendano come funzionano gli algoritmi. c) Pubblica amministrazione. L’IA serve solo come strumento di supporto nelle decisioni amministrative. La decisione finale resta sempre umana e deve essere motivata (come previsto dalla legge 241/1990). L’uso dell’IA deve essere trasparente, comprensibile e soggetto a controllo umano. d) Giustizia. Il giudice mantiene piena autorità nell’interpretazione della legge, nella valutazione dei fatti e nell’adozione dei provvedimenti. L’IA può aiutare solo per organizzare fascicoli, fare ricerche giurisprudenziali, redigere parti standardizzate di atti. Questo garantisce la sovranità del magistrato e la protezione dei diritti dei cittadini. e) Diritto d’autore. L’IA non può essere considerata autrice di un’opera: l’autore è sempre umano. L’uso di strumenti IA per il text and data mining è regolamentato per bilanciare innovazione e tutela dei creatori. Il messaggio chiave della legge🡪 L’IA è uno strumento al servizio della società e dei cittadini. Il controllo umano, la trasparenza e il rispetto dei diritti fondamentali sono vincoli obbligatori per ogni utilizzo. La legge 132/2025 fa da ponte tra tecnologia e costituzione: traduce i principi europei in regole operative nazionali, protegge la dignità, la libertà e l’eguaglianza delle persone, garantisce che nessuna decisione critica venga lasciata solo agli algoritmi. 


Conclusione: una sfida aperta. Il percorso che va dal diritto naturale all’AI Act e alla legge italiana del 2025 ha un filo comune: difendere la dignità della persona in un mondo governato da algoritmi. Si affaccia però una nuova realtà, definibile come “status algoritmico”: la posizione giuridica della persona così come viene filtrata e condizionata dai sistemi di IA. La vera sfida del futuro sarà verificare se i principi fondamentali – dignità, eguaglianza, cittadinanza, democrazia, salute e lavoro – riusciranno ancora a guidare lo sviluppo tecnologico, oppure se finiranno per adattarsi passivamente alle esigenze dell’innovazione. In gioco c’è la promessa stessa del costituzionalismo: evitare che la persona venga ridotta a un semplice dato e che il cittadino diventi solo un profilo



Conoscere i propri diritti è importante ma, ancora di più, è esercitarli nel modo corretto. I dirigenti di Azione Sindacale Udine garantiscono ai propri iscritti una tutela gratuita, qualificata e tempi di attesa che non superano, nella peggiore delle ipotesi, le 48 ore. 

☎ Chiamaci 3516688108

📩 contattaci ➡ azionesindacale.fvg@gmail.com



Commenti


bottom of page