Privacy e intelligenza artificiale. Garante: vigilare sugli algoritmi. Applicazioni devono rispettare diritti fondamentali, inclusa protezione dei dati

google home, spia, intelligenza artificiale

Sviluppatori, produttori e fornitori di servizi di Intelligenza Artificiale devono valutare preventivamente i possibili rischi, adottando un approccio di tipo “precauzionale”. Necessarie precise prescrizioni nelle procedure di appalto pubblico.
Queste alcune delle indicazioni delle linee guida presentate – nel corso della Giornata della Protezione dei dati 2019 – dal Comitato consultivo della Convenzione sulla protezione delle persone rispetto al trattamento automatizzato di dati a carattere personale (Convenzione 108/1981), che dal 2016 è presieduto dalla rappresentante del Garante della privacy italiano.
Le linee-guida (reperibili al seguente link), di cui è resa disponibile sul sito del Garante una traduzione a cura dell’Ufficio), si rivolgono a decisori pubblici, sviluppatori e fornitori di servizi basati sulla Intelligenza Artificiale, come quelli utilizzati nell’ambito della domotica, delle smart cities, della sanità e della prevenzione del crimine.  In particolare, sono evidenziati i principi da rispettare affinché l’impiego di tale tecnologia avvenga nel rispetto dei principi della nuova Convenzione 108 (nota come “Convenzione 108+”), adottata lo scorso 18 maggio 2018, e già firmata da 26 Paesi tra cui l’Italia.
Si sottolinea, innanzi tutto, che ogni progetto basato sull’intelligenza artificiale dovrebbe rispettare la dignità umana e le libertà fondamentali, nonché i principi base di liceità, correttezza, specificazione della finalità, proporzionalità del trattamento, protezione dei dati fin dalla progettazione (privacy by design) e protezione per impostazione predefinita (privacy by default), responsabilità e dimostrazione della conformità (accountability), trasparenza, sicurezza dei dati e gestione dei rischi.

Tra i punti cardine del documento si segnala la necessità di adottare un approccio fondato sulla preventiva valutazione dell’impatto che sistemi, software e dispositivi basati sull’intelligenza artificiale possono avere su diritti fondamentali, nonché sulla minimizzazione dei relativi rischi per le persone evitando, tra l’altro, potenziali pregiudizi (bias) ed altri effetti discriminatori, come quelli basati sulla differenza di genere o sulle minoranze etniche. Il Comitato consultivo rimarca, tra l’altro, l’opportunità di inserire nel processo di valutazione nuove “forme partecipatorie”, basate sul coinvolgimento di individui e di gruppi potenzialmente colpiti dagli effetti della Intelligenza Artificiale.
Varie le indicazioni anche per la pubblica amministrazione che dovrebbe, ad esempio, predisporre procedure di appalto pubblico dove si impongano a sviluppatori, produttori e fornitori di servizi di AI, specifici obblighi di trasparenza, la valutazione preliminare dell’impatto del trattamento dei dati sui diritti umani e sulle libertà fondamentali, e l’obbligo di “vigilanza sugli algoritmi”, in particolare sugli effetti negativi e sulle conseguenze derivanti dalle applicazioni AI. (E.G. per NL)

Questo sito utilizza cookie per gestire la navigazione, la personalizzazione di contenuti, per analizzare il traffico. Per ottenere maggiori informazioni sulle categorie di cookie, sulle finalità e sulle modalità di disattivazione degli stessi clicca qui. Con la chiusura del banner acconsenti all’utilizzo dei soli cookie tecnici. La scelta può essere modificata in qualsiasi momento.

Privacy Settings saved!
Impostazioni

Quando visiti un sito Web, esso può archiviare o recuperare informazioni sul tuo browser, principalmente sotto forma di cookies. Controlla qui i tuoi servizi di cookie personali.

Questi strumenti di tracciamento sono strettamente necessari per garantire il funzionamento e la fornitura del servizio che ci hai richiesto e, pertanto, non richiedono il tuo consenso.

Questi cookie sono impostati dal servizio recaptcha di Google per identificare i bot per proteggere il sito Web da attacchi di spam dannosi e per testare se il browser è in grado di ricevere cookies.
  • wordpress_test_cookie
  • wp_lang
  • PHPSESSID

Questi cookie memorizzano le scelte e le impostazioni decise dal visitatore in conformità al GDPR.
  • wordpress_gdpr_cookies_declined
  • wordpress_gdpr_cookies_allowed
  • wordpress_gdpr_allowed_services

Rifiuta tutti i Servizi
Accetta tutti i Servizi
Send Mail 2a1 - Privacy e intelligenza artificiale. Garante: vigilare sugli algoritmi. Applicazioni devono rispettare diritti fondamentali, inclusa protezione dei dati

Non perdere le novità: iscriviti ai canali social di NL su Facebook, TelegramWhatsApp. News in tempo reale.

Ricevi gratis la newsletter di NL!