La legislazione sia unionale che interna, e che già regolamenta il rapporto tra digitale e minori, è in fase è nel pieno dei procedimenti per l’adozione di atti più specifici. Work in progress, in ambito europeo, per le linee guida volte a proteggere i minori online e la disciplina sull’intelligenza artificiale. Tempi non ancora scaduti per attuare la delega legislativa e l’emanazione di atti regolamentari previsti dalla legge italiana sul cyberbullismo.
Scopri il nuovo manuale Educazione ai Social Media dai Boomer alla Generazione Alpha, edito da Maggioli Editore che analizza l’impatto del digitale sulle diverse generazioni. Una guida essenziale per educatori e professionisti che vogliono comprendere le dinamiche sociali attraverso le generazioni.
In UE work in progress verso le guidelines per proteggere i minori online
La protezione dei minori rappresenta una priorità basilare per la Commissione UE, impegnata a sostenere, responsabilizzare e rispettare i bambini online, che si riflette nella strategia Better Internet for Kids e nella legge sui servizi digitali (Digital Services Act). Nel luglio 2024 la Commissione dell’UE ha lanciato un invito a presentare contributi per raccogliere feedback sulle sue venture linee guida in ambito di protezione dei minori online e che, una volta adottate, forniranno indicazioni su come le piattaforme online dovranno implementare elevati livelli di privacy, sicurezza e protezione per i minori online, come imposto dal Digital Services Act (DSA). In quell’occasione la Commissione precisò che le piattaforme online dovrebbero assicurare che i diritti e gli interessi superiori dei bambini fossero una considerazione centrale quando si progettano i servizi a loro dedicati. Le piattaforme dovrebbero adottare un approccio basato sul rischio, effettuare regolarmente valutazioni di impatto e implementare misure di mitigazione per qualsiasi potenziale rischio per i minori derivante dai loro servizi. Il lavoro tra la Commissione e gli Stati membri su un approccio armonizzato alla verifica dell’età risulta anch’esso presente nelle linee guida. Al contempo, la stessa Commissione puntualizzava che, a eccezione delle micro e piccole imprese, le linee guida sulla tutela dei minori si applicheranno a tutte le piattaforme online accessibili ai minori, incluse quelle che non sono rivolte ai minori, bensì che hanno comunque utenti minorenni, ad esempio a causa di meccanismi di garanzia dell’età inadeguati. Come ulteriore step, il 4 ottobre scorso la Commissione ha tenuto un seminario multilaterale finalizzato a raccogliere contributi per gli orientamenti sulla protezione dei minori a norma del DSA. Il seminario ha riunito circa 140 partecipanti in rappresentanza di un’estesa gamma di opinioni e competenze, tra cui i coordinatori dei servizi digitali e ulteriori autorità nazionali competenti, le organizzazioni della società civile, le piattaforme online e i motori di ricerca di dimensioni molto grandi designati, come anche le piattaforme online più piccole, le associazioni industriali, il mondo accademico, i centri per un Internet più sicuro e gli ambasciatori della gioventù “Internet migliore per i bambini”, integrando l’invito, formulato a luglio, a presentare contributi sulle linee guida sulla protezione dei minori, e in tal modo raccogliendo 174 contributi. In detta sede sono emersi una vasta gamma di argomenti, tra cui l’accesso a contenuti inappropriati per l’età, gli algoritmi che promuovono comportamenti di dipendenza, il cyberbullismo, le molestie sessuali, la “sextortion”, la proliferazione di materiale pedopornografico, la promozione di contenuti e comportamenti autolesionistici e suicidi, le truffe, il furto di identità e il phishing. Sulla base di questi scenari di vita reale, i partecipanti hanno individuato esempi di buone pratiche esistenti o auspicate, nonché raccomandazioni per attenuare efficacemente i rischi online per i minori, salvaguardando nel contempo i diritti dei minori. Il focus ha riguardato questioni relative ai meccanismi di segnalazione a misura di minore, al controllo parentale, all’adattamento dei sistemi algoritmici e dei sistemi di raccomandazione, all’impatto delle immagini generate dall’IA, alle impostazioni predefinite in materia di sicurezza e privacy e alla moderazione dei contenuti. Il contributo del seminario confluirà nella stesura delle linee guida per la protezione dei minori ai sensi dell’articolo 28 del DSA. La Commissione intende presentare questo progetto per la consultazione pubblica all’inizio del 2025, con piani per l’adozione scansionata. Altresì, la Commissione ha previsto di avviare un’indagine a livello dell’UE sugli impatti dei social media sul benessere dei giovani e un piano d’azione per contrastare il cyberbullismo.
Volume consigliato per approfondire
Educazione ai Social Media - Dai Boomer alla generazione Alfa
Ricordate quando i nostri genitori ci dicevano di non parlare con gli sconosciuti? Il concetto non è cambiato, si è “trasferito” anche in rete. Gli “sconosciuti” possono avere le facce più amichevoli del mondo, nascondendosi dietro uno schermo. Ecco perché dobbiamo imparare a navigare queste acque digitali con la stessa attenzione che usiamo per attraversare la strada. Ho avuto l’idea di scrivere questo libro molto tempo fa, per offrire una guida pratica a genitori che si trovano, come me, tutti i giorni ad affrontare il problema di dare ai figli alternative valide al magico potere esercitato su di loro – e su tutti noi – dallo smartphone. Essere genitori, oggi, e per gli anni a venire sempre di più, vuol dire anche questo: scontrarsi con le tematiche proprie dei nativi digitali, diventare un po’ esperti di informatica e di sicurezza, di internet e di tecnologia e provare a trasformarci da quei boomer che saremmo per diritto di nascita, a hacker in erba. Si tratta di una nuova competenza educativa da acquisire: quanto è sicuro il web, quali sono i rischi legati alla navigazione, le tematiche della privacy, che cosa si può postare e che cosa no, e poi ancora il cyberbullismo, il revenge porn, e così via in un universo parallelo in cui la nostra prole galleggia tra like, condivisioni e hashtag.
Luisa Di Giacomo
Avvocato, Data Protection Officer e consulente Data Protection e AI in numerose società nel nord Italia. Portavoce nazionale del Centro Nazionale Anti Cyberbullismo. È nel pool di consulenti esperti di Cyber Law istituito presso l’European Data Protection Board e ha conseguito il Master “Artificial Intelligence, implications for business strategy” presso il MIT. Autrice e docente di corsi di formazione, è presidente e co-founder di CyberAcademy.
La regolamentazione sull’intelligenza artificiale
L’impiego dell’intelligenza artificiale nell’UE sta per essere regolamentato da uno specifico provvedimento, che si propone il primato mondiale di legislazione sulla tematica. Nell’aprile 2021 la Commissione ha presentato il primo quadro normativo dell’UE sull’IA, proponendo che i sistemi di intelligenza artificiale utilizzabili in diverse applicazioni siano analizzati e classificati in base al rischio che rappresentano per gli utenti, e i differenti livelli di rischio comporteranno una maggiore o minore regolamentazione. Nel marzo 2024 il Parlamento ha adottato la regolamentazione sull’intelligenza artificiale cui è seguita, nel maggio 2024, l’approvazione del Consiglio. Il testo diverrà pienamente operativo 24 mesi dopo l’entrata in vigore; tuttavia, tre parti avranno vigore già da prima:
- il divieto per i sistemi di IA che presentano rischi inaccettabili sarà applicabile sei mesi dopo l’entrata in vigore;
- i codici di pratica si applicheranno nove mesi dopo l’entrata in vigore;
- le regole sui sistemi di IA a uso generale, tenuti a rispettare i requisiti di trasparenza, si applicheranno dodici mesi dopo l’entrata in vigore.
Per i sistemi ad alto rischio verrà stabilita una tempistica più ampia per conformarsi ai requisiti, in quanto gli obblighi afferenti diventeranno applicabili 36 mesi dopo l’entrata in vigore. La priorità per il Parlamento si incentra sulle circostanze che i sistemi di intelligenza artificiale utilizzati nell’UE siano sicuri, trasparenti, tracciabili, non discriminatori e rispettosi dell’ambiente e, i medesimi sistemi, dovrebbero essere supervisionati da persone anziché da automazione, nella finalità di evitare conseguenze dannose. Il Parlamento intende pure stabilire una definizione tecnologicamente neutra e uniforme per l’IA che potrebbe essere applicata ai futuri sistemi di intelligenza artificiale. L’articolato stabilisce obblighi per fornitori e utenti a seconda del livello di rischio dell’IA. Alcuni sistemi di intelligenza artificiale comportano un rischio minimo, ma devono essere valutati. I sistemi di intelligenza artificiale sono considerati a rischio inaccettabile, e pertanto vietati, quando costituiscono una minaccia per le persone, e comprendono:
- manipolazione comportamentale cognitiva di persone o gruppi vulnerabili specifici, come ad esempio giocattoli attivati vocalmente che incoraggiano comportamenti pericolosi nei bambini;
- classificazione sociale: classificazione delle persone in base al comportamento, al livello socio-economico, alle caratteristiche personali;
- identificazione biometrica e categorizzazione delle persone fisiche;
- sistemi di identificazione biometrica in tempo reale e a distanza, come il riconoscimento facciale.
Alcune eccezioni potrebbero tuttavia essere ammesse a fini di applicazione della legge. I sistemi di identificazione biometrica remota “in tempo reale” saranno consentiti in un numero limitato di casi gravi, mentre i sistemi di identificazione biometrica a distanza “post”, in cui l’identificazione avviene dopo un significativo ritardo, verranno consentiti per perseguire reati gravi e solo previa autorizzazione del tribunale. I sistemi di intelligenza artificiale che influiscono in modo negativo sulla sicurezza, ovvero sui diritti fondamentali, saranno considerati ad alto rischio e verranno suddivisi in due categorie:
- i sistemi di intelligenza artificiale utilizzati in prodotti soggetti alla direttiva dell’UE sulla sicurezza generale dei prodotti, che comprendono giocattoli, aviazione, automobili, dispositivi medici e ascensori;
- i sistemi di intelligenza artificiale che rientrano in otto aree specifiche dovranno essere registrati in un database dell’UE: identificazione e categorizzazione biometrica di persone naturali; gestione e funzionamento di infrastrutture critiche; istruzione e formazione professionale, occupazione, gestione dei lavoratori e accesso all’autoimpiego; accesso e fruizione di servizi privati essenziali e servizi pubblici e vantaggi; forze dell’ordine; gestione delle migrazioni; asilo e controllo delle frontiere; assistenza nell’interpretazione e applicazione legale della legge.
Tutti i sistemi di intelligenza artificiale ad alto rischio saranno valutati prima di essere immessi sul mercato e durante l’intero ciclo di vita. I cittadini avranno il diritto di presentare reclami sui sistemi di IA alle autorità nazionali designate. L’IA generativa, come ad esempio ChatGPT, non sarà classificata “ad alto rischio” ma dovrà in ogni caso rispettare requisiti di trasparenza e la legge europea sul diritto d’autore dell’UE: rivelare se il contenuto è stato generato da un’intelligenza artificiale, progettare il modello in modo da impedire la generazione di contenuti illegali, pubblicare riepiloghi dei dati citando i diritti d’autore impiegati per l’addestramento. I modelli di IA ad alto impatto generale che potrebbero rappresentare un rischio sistemico, come il modello di IA più avanzato GPT-4, dovranno essere sottoposti a valutazioni approfondite, ma anche segnalare alla Commissione eventuali incidenti gravi. Il provvedimento in parola intende offrire alle PMI e alle start-up opportunità di sviluppare e addestrare modelli di intelligenza artificiale prima del loro lancio sul mercato. Per tale motivo viene richiesto che le autorità nazionali forniscano alle aziende la possibilità di effettuare test che simulino le condizioni vicine al mondo reale.
L’approccio del GDPR in ambito minorile
Il Regolamento (UE) 2016/679 relativo alla protezione delle persone fisiche con riguardo al trattamento dei dati personali (GDPR) stabilisce che i dati personali dei minori richiedono una specifica protezione poiché gli stessi possono risultare meno consapevoli dei loro diritti e di ciò che può accadere se un’impresa impiega i loro dati personali, soprattutto per pubblicizzare e proporre contenuti. Le informazioni circa il trattamento dei dati dovrebbero essere chiare e facili da comprendere per i minori. Tutti hanno diritto all’oblio, a determinate condizioni, pertanto un utente può richiedere a un’impresa di rimuovere i propri dati personali, in particolare se il medesimo ha prestato il proprio consenso quando era minore. Al fine di utilizzare la maggior parte dei servizi online, come un servizio di social network o una piattaforma di gioco, i minori devono avere almeno 16 anni (ovvero un’età non inferiore a 13 anni a seconda delle normative nazionali) per prestare il consenso alla condivisione dei propri dati personali. Per i minori di età inferiore a quella fissata dalle normative nazionali, un genitore o un tutore deve prestare il consenso al trattamento dei dati prima che il servizio sia fornito al minore.
La disciplina interna sul cyberbullismo
Il cyberbullismo non altro che la manifestazione in internet del fenomeno più ampio conosciuto quale bullismo. Quest’ultimo si caratterizza da azioni violente e intimidatorie esercitate da un bullo, o un gruppo di bulli, su una vittima. Le azioni possono riguardare molestie verbali, aggressioni fisiche, persecuzioni, in genere attuate in ambiente scolastico. Nell’attualità la tecnologia consente ai bulli di materializzarsi in ogni momento perseguitando le vittime tramite messaggi, immagini, video offensivi inviati attraverso smartphone o pubblicati sui website e sui social network. Per l’effetto, in questo modo il bullismo si evolve in cyberbullismo. La disciplina volta a prevenire e contrastare i fenomeni del bullismo e del cyberbullismo, del 2017, è stata novellata dalla legge n. 70/2024. In dettaglio il provvedimento interviene sulla legge n. 71/2017 ampliandone il perimetro di applicazione dalla prevenzione e contrasto del solo cyberbullismo anche alla prevenzione e contrasto del bullismo, incrementando le risorse a disposizione per campagne informative di prevenzione e sensibilizzazione, prevedendo la possibilità per le regioni di promuovere iniziative affinché sia fornito alle istituzioni scolastiche che lo richiedano un servizio di sostegno psicologico per gli studenti, prevedendo l’adozione, da parte di ogni istituto scolastico, di un codice interno per la prevenzione e il contrasto del bullismo e del cyberbullismo, nonché l’obbligo del dirigente scolastico che venga a conoscenza, nell’esercizio delle proprie funzioni, di episodi di bullismo e di cyberbullismo, di informare i genitori dei minori coinvolti e di applicare le procedure previste dalle linee di orientamento ministeriale, promuovendo adeguate iniziative di carattere educativo. La stessa legge del 2024 interviene sul regio decreto-legge n. 1404/1934 (“legge minorile”) e, in particolare, sulla disciplina delle misure coercitive non penali che possono essere adottate dal tribunale per i minorenni (a seguito della riforma cd. Cartabia, tribunale per le persone, per i minorenni), inserendo in modo espresso, tra i presupposti per l’adozione di tali misure, il riferimento a condotte aggressive, pure in gruppo e per via telematica, nei confronti di persone, animali o cose o lesive della dignità altrui. Inoltre, è stato novellato il procedimento per l’adozione delle misure, prevedendo un intervento preliminare con un iter di mediazione o un progetto di intervento educativo con finalità rieducativa o riparativa, sotto la direzione e il controllo dei servizi sociali minorili, all’esito del quale il tribunale può disporre la conclusione del procedimento, la continuazione del progetto oppure l’affidamento del minore ai servizi sociali o il collocamento del minore in una comunità. L’articolo 3 contiene una delega legislativa al Governo per l’adozione, entro dodici mesi dalla data di entrata in vigore della legge, quindi con deadline a giugno 2025, di uno o più decreti legislativi orientati a prevenire e contrastare il fenomeno del bullismo e del cyberbullismo. Si prevedono l’implementazione del numero pubblico di emergenza 114, rilevazioni statistiche a opera dell’ISTAT, l’obbligo di richiamare in modo esplicito nei contratti coi fornitori di servizi di comunicazione elettronica le disposizioni civilistiche in materia di responsabilità dei genitori per i danni causati dai figli minori e le avvertenze del regolamento europeo in materia di servizi digitali e campagne di prevenzione e sensibilizzazione da parte della Presidenza del Consiglio dei ministri. E’ stata istituita, per il 20 gennaio di ogni anno, la “Giornata del rispetto” volta all’approfondimento delle tematiche del rispetto degli altri, della sensibilizzazione sui temi della non violenza psicologica e fisica, della lotta verso ogni forma di discriminazione e prevaricazione. Infine, la legge del 2024 prevede che siano apportate, con successivo atto regolamentare, le opportune modifiche allo Statuto delle studentesse e degli studenti (DPR n. 249/1988), prevedendo, nell’ambito dei diritti e doveri degli studenti, l’impegno della scuola a porre progressivamente in essere le condizioni per assicurare l’emersione di episodi di bullismo e cyberbullismo, di situazioni di utilizzo o abuso di alcool o di sostanze stupefacenti e di forme di dipendenza.
Unisciti alla nostra comunità legale
Iscriviti alla nostra newsletter per ricevere le ultime notizie, analisi giuridiche e risorse esclusive direttamente nella tua casella di posta. Non perdere nessun aggiornamento importante nel campo del diritto civile. Iscriviti ora e rimani informato!