AeS Nr.8

Novembre - Dicembre 2023 n Automazione e Strumentazione Primo piano 16 SCENARI Per questo motivo, l’Unione Europea ha adot- tato un quadro giuridico moderno che garantisce la sicurezza degli utenti online, stabilisce una governance con la protezione dei diritti fonda- mentali in primo piano e mantiene un ambiente equo e aperto per le piattaforme online. Le piattaforme designate e i loro obblighi Un passo significativo di questo processo di ade- guamento normativo e regolatorio è avvenuto lo scorso aprile, quando la Commissione ha adot- tato le prime decisioni ai sensi del Digital Ser- vices Act (DSA), designando le prime VLOPs ( Very Large Online Platforms ) e le VLOSEs ( Very Large Online Search Engines ). Le piattaforme sono state designate in base ai dati degli utenti che esse dovevano pubblicare entro il 17 febbraio 2023; nell’insieme si tratta di sistemi che raggiun- gono almeno 45 milioni di utenti attivi mensili. L’elenco comprende 17 piattaforme online molto grandi (VLOPs) e due motori di ricerca online molto grandi (VLOSEs). Le prime compren- dono Alibaba AliExpress, Amazon Store, Apple AppStore, Booking.com, Facebook, Google Play, Google Maps, Google Shopping, Instagram, LinkedIn, Pinterest, Snapchat, TikTok, Twitter (adesso X), Wikipedia, YouTube, Zalando; i due motori sono Bing e Google Search. La designazione comporta per queste aziende la necessità di conformarsi, entro quattro mesi, all’intera serie di nuovi obblighi previsti dalla DSA; sono obblighi che mirano a responsabi- lizzare e proteggere gli utenti online, compresi i minori, richiedendo ai servizi designati di valu- tare e mitigare i loro rischi sistemici e di fornire solidi strumenti di moderazione dei contenuti. Vediamoli più in dettaglio. Strumenti orientati a una maggior responsabi- lizzazione degli utenti i quali devono ricevere informazioni chiare sul motivo per cui vengono raccomandate loro determinate informazioni, hanno il diritto di rinunciare ai sistemi di racco- mandazione basati sulla profilazione e possono segnalare facilmente i contenuti illegali che le piattaforme dovranno valutare diligentemente. Gli annunci pubblicitari non possono essere visualizzati in base ai dati sensibili dell’utente e devono essere tutti etichettati chiaramente. Le piattaforme devono fornire una sintesi facilmente comprensibile dei loro termini e condizioni, nelle lingue degli Stati in cui operano. In tema di protezione dei minori, le piattaforme devono riprogettare i loro sistemi per garantire un elevato livello di privacy, sicurezza e protezione; la pubblicità mirata basata sulla profilazione dei bam- bini non è più consentita; le valutazioni di rischio speciali, comprese quelle relative agli effetti nega- tivi sulla salute mentale, devono essere fornite alla Commissione entro 4 mesi dalla designazione e rese pubbliche al massimo un anno dopo. Le piattaforme quindi devono riprogettare i loro servizi, comprese le interfacce, i sistemi di raccomandazione, i ter- mini e le condizioni, per mitigare questi rischi. In generale si dovrà attuare una più diligente moderazione dei contenuti: le piattaforme devono adottare misure per affrontare i rischi legati alla diffusione di contenuti illegali online e agli effetti negativi sulla libertà di espressione e di informa- zione; devono avere termini e condizioni chiari e farli rispettare in modo diligente e non arbitrario; devono disporre di un meccanismo che consenta agli utenti di segnalare i contenuti illegali e di agire tempestivamente in seguito alle notifiche; infine devono analizzare i loro rischi specifici e mettere in atto misure di mitigazione. È richiesta a tutti maggiore trasparenza e respon- sabilità. Le piattaforme devono garantire che le loro valutazioni del rischio e la loro conformità agli obblighi della DSA siano verificate esternamente e in modo indipendente; devono consentire l’ac- cesso ai dati disponibili al pubblico e ai ricercatori; devono pubblicare archivi di tutti gli annunci ser- viti sulla loro interfaccia; devono pubblicare rap- porti di trasparenza sulle decisioni di moderazione dei contenuti e sulla gestione dei rischi. Le piattaforme devono anche identificare, analiz- zare e mitigare un’ampia gamma di rischi sistemici che vanno dal modo in cui i contenuti illegali e la disinformazione possono essere amplificati sui loro servizi, all’impatto sulla libertà di espressione e sulla libertà dei media. Allo stesso modo, devono essere valutati e mitigati i rischi specifici legati alla violenza di genere online e alla protezione dei minori online e della loro salute mentale. Il DSA sarà applicato attraverso un’architettura di vigilanza paneuropea. La Commissione è l’autorità competente per la vigilanza delle piattaforme e dei motori di ricerca designati, ma lavorerà in stretta collaborazione con i coordinatori dei servizi digi- tali nel quadro di vigilanza istituito dalla DSA. Queste autorità nazionali, responsabili anche della vigilanza delle piattaforme e dei motori di ricerca più piccoli, devono essere istituite dagli Stati mem-

RkJQdWJsaXNoZXIy Mzg4NjYz