Come garantire il rispetto delle regole europee sulla privacy nello sviluppo dei modelli di intelligenza artificiale. Arriva l'atteso parere del Comitato europeo per la protezione dei dati (Edpb) sull'uso dei dati personali per la diffusione dei modelli di IA. Richiesto dall'Autorità irlandese per la protezione dei dati (Dpa) e redatto in consultazione con l'ufficio europeo per l'IA, il parere esamina la questione sotto tre aspetti. Quello dell'anonimato, in primo luogo. L'Edpb chiarisce che un modello di IA sia da considerare anonimo qualora sia molto improbabile identificare direttamente o indirettamente le persone i cui dati sono stati utilizzati per creare il modello ed estrarre tali dati personali dal modello attraverso interrogazioni.
Il parere approfondisce poi la questione sotto il profilo dell'interesse legittimo, fornendo considerazioni generali che le autorità di protezione dei dati dovrebbero prendere in considerazione quando valutano se l'interesse legittimo è una base giuridica appropriata per il trattamento dei dati personali per lo sviluppo e l'uso di modelli di IA.
Un test in tre fasi aiuta a valutare l'uso del legittimo interesse come base giuridica. L'Edpb fornisce gli esempi di un agente conversazionale per assistere gli utenti e dell'uso dell'IA per migliorare la sicurezza informatica. Questi servizi possono essere vantaggiosi per le persone e possono contare sul legittimo interesse come base giuridica, ma solo se il trattamento si dimostra strettamente necessario e se viene rispettato il bilanciamento dei diritti.
Il parere include anche una serie di criteri per aiutare le autorità di protezione dei dati a valutare se le persone possono ragionevolmente aspettarsi determinati usi dei loro dati personali. Tra i criteri individuati, la possibilità che i dati personali siano o meno disponibili al pubblico, la natura del rapporto tra l'individuo e il responsabile del trattamento, la natura del servizio, il contesto in cui i dati personali sono stati raccolti, la fonte da cui sono stati raccolti, e i potenziali ulteriori usi del modello. Infine, se un modello di IA è stato sviluppato con dati personali trattati illecitamente, ciò potrebbe avere un impatto sulla legittimità del suo impiego, a meno che il modello non sia stato debitamente anonimizzato.
Riproduzione riservata © Copyright ANSA