• DGA
×

Avviso

Non ci sono cétégorie

socia.jpgUn clic basta per trasformare un volto in un’immagine nuda che non esiste, ma che appare reale. È la nuova frontiera del bullismo digitale: foto manipolate con l’intelligenza artificiale, fatte circolare tra coetanei come se fossero un gioco, fino a diventare un incubo per le vittime. L’ultimo caso riguarda un gruppo di adolescenti che avrebbe condiviso immagini deepfake di compagne di classe su chat collettive, corredandole di commenti pesanti. Le ragazze, racconta il Centro, scoperta la circolazione dei fotomontaggi, hanno denunciato insieme alle famiglie, facendo scattare un’indagine della magistratura minorile. Si tratta di un episodio che apre interrogativi profondi sul rapporto tra giovani, tecnologia e responsabilità. Se da un lato i social e le chat sono ormai l’habitat quotidiano degli under 18, dall’altro diventano terreno fertile per fenomeni violenti, che spesso i protagonisti non percepiscono come reato. Eppure la legge italiana parla chiaro: la pornografia minorile è punita anche quando riguarda immagini virtuali, come quelle generate con software di intelligenza artificiale. Il quadro normativo, rafforzato dall’articolo 600 quater 1 del codice penale, prevede sanzioni severe per chi produce, diffonde o detiene materiale pedopornografico, anche se ricreato digitalmente. Un rischio che ora tocca da vicino ragazzi poco più che quattordicenni, alcuni dei quali già ascoltati come persone informate sui fatti. Il fenomeno non è isolato: si inserisce in una tendenza sempre più preoccupante. Le immagini deepfake, che imitano la realtà fino a renderla indistinguibile, vengono scambiate non solo nelle chat private e nei social tradizionali, ma anche in spazi meno controllati, fino al dark web. Un allarme che cresce, accompagnato dagli appelli di chi da anni osserva come la rete possa diventare veicolo di nuove forme di violenza e sfruttamento. La linea di confine tra scherzo e crimine, per molti adolescenti, si fa sempre più sottile. E ogni nuova inchiesta sembra dimostrarlo.