L’Australia ha bisogno di norme forti per l’intelligenza artificiale

JavaScript è disabilitato
Se possibile, abilita JavaScript per un'esperienza migliorata sul sito web CHOICE.

Bisogno di sapere

  • Poiché l’intelligenza artificiale diventa sempre più diffusa, dobbiamo essere consapevoli dei rischi che questa tecnologia comporta
  • Stiamo già assistendo ad esempi di danni derivanti dall’uso dell’intelligenza artificiale, come gli esiti discriminatori derivanti dalla fissazione automatica dei prezzi
  • CHOICE ha presentato una proposta al governo delineando i nostri suggerimenti su come proteggere i consumatori dai rischi dell'intelligenza artificiale, tra cui la creazione di leggi basate sul rischio e la nomina di regolatori forti

Una volta confinata ai documenti accademici e alla fantascienza, il 2023 sembra l’anno in cui l’intelligenza artificiale (AI) è ufficialmente uscita dai laboratori di ricerca per entrare nel mercato dei consumatori. Gli strumenti basati sull'intelligenza artificiale ChatGPT e DALL-E sono diventati nomi familiari e l'intelligenza artificiale promette di offrire produttività e divertimento.

Ma sebbene l’intelligenza artificiale abbia i suoi vantaggi, non dovremmo ignorare i rischi. Le aziende si rivolgono all’intelligenza artificiale per aumentare la redditività, spesso a scapito dei consumatori.

I rischi dell'intelligenza artificiale 

Le nostre indagini nell’ultimo anno hanno scoperto che la tecnologia di riconoscimento facciale si è fatta strada nei negozi al dettaglio, nei pub, nei club e negli stadi. Questa tecnologia consente alle aziende di rifiutare automaticamente l’accesso alle persone in base ai database di identità, ma gli esperti lo fanno hanno riscontrato un sorprendente tasso di inesattezza, soprattutto per le persone con disabilità e le persone di colore (in particolare donne).

L’intelligenza artificiale viene utilizzata anche per elaborare più dati che mai. Le aziende utilizzano persino algoritmi per prendere decisioni su quanto dovremmo pagare per le cose, dai generi alimentari alle assicurazioni o ai piani di abbonamento e persino ai mutui per la casa.

I chatbot che utilizzano ChatGPT possono replicare informazioni false nelle loro risposte o fornire consigli pericolosi

Ma quando le decisioni sui prezzi sono completamente automatizzate, ciò può portare a risultati discriminatori, come premi più alti per le persone provenienti da contesti emarginati o prezzi più alti per gli anziani.

L’intelligenza artificiale generativa come ChatGPT presenta una serie di rischi. I chatbot che utilizzano ChatGPT possono replicare informazioni false nelle loro risposte o fornire consigli pericolosi. La Federal Trade Commission, l'autorità di vigilanza della concorrenza degli Stati Uniti, sta attualmente indagando se ChatGPT abbia danneggiato le persone creando informazioni false e sta anche esaminando le sue pratiche sulla privacy.

Cosa bisogna fare per tutelare i consumatori?

persona che mostra i dati di vendita sul tablet utilizzando uno stilo

Le aziende utilizzano algoritmi per prendere decisioni su quanto le persone dovrebbero pagare per cose che possono portare a risultati ingiusti.

Le leggi sull’IA dovrebbero essere basate sul rischio

Gli esperti lanciano l’allarme su questi rischi già da tempo, ma i governi di tutto il mondo stanno appena recuperando terreno. L’Australia sta ora conducendo la propria consultazione sull’intelligenza artificiale e CHOICE ha appena presentato i nostri suggerimenti su come il governo può proteggere i consumatori da questi rischi.

Al centro della nostra proposta c’è la necessità di un approccio all’IA basato sul rischio, proprio come propone l’Unione Europea. Un quadro basato sul rischio classifica le attività di intelligenza artificiale da quelle considerate a rischio minimo e quindi richiedono poche limitazioni a quelle ad alto rischio che sono limitate o addirittura vietate.

Abbiamo anche suggerito che le nostre leggi sull’intelligenza artificiale dovrebbero codificare i diritti dei consumatori in materia di sicurezza, equità, responsabilità, affidabilità e trasparenza.

Il governo federale dovrebbe anche rafforzare le leggi esistenti come la legge australiana sui consumatori e il Privacy Act per garantire che le persone siano completamente protette dall’uso improprio o dallo sfruttamento dell’intelligenza artificiale.

Sono essenziali regolatori forti

Ma fare nuove leggi non è sufficiente: abbiamo bisogno di regolatori forti per far rispettare queste leggi. CHOICE chiede un commissario per l’intelligenza artificiale ben finanziato con una serie di poteri normativi, compresi poteri sanzionatori civili e penali.

Un commissario per l’IA dovrebbe sfruttare le proprie competenze specialistiche nella collaborazione con gli organismi di regolamentazione esistenti responsabili per la supervisione dei settori dell’economia che sono influenzati dall’intelligenza artificiale, come i diritti dei consumatori, la concorrenza, la privacy e le questioni umane diritti.

Le grandi aziende tecnologiche vogliono autoregolamentarsi, ma la storia dimostra che non ci si può fidare di queste aziende per scrivere le proprie regole

Le grandi aziende tecnologiche vogliono autoregolamentarsi, ma la storia dimostra che non ci si può fidare di queste aziende per scrivere le proprie regole. L’Australia dovrebbe seguire l’esempio dell’Unione Europea e del Canada e gettare le basi per un mercato equo dove le imprese devono farlo garantire sistemi di IA sicuri, equi, trasparenti, affidabili e responsabili prima di rilasciarli.

Ciò non solo proteggerebbe la nostra comunità dai danni, ma la incoraggerebbe anche innovazione e promuovere un uso responsabile dell’intelligenza artificiale.

Potete leggere la nostra presentazione completa al governo Qui.

Ci preoccupiamo della precisione. Vedi qualcosa che non va in questo articolo? Facci sapere o leggi di più verifica dei fatti presso CHOICE.

Immagini di riserva: Getty, se non diversamente specificato.

Icona della comunità SCELTA

Per condividere i tuoi pensieri o porre una domanda, visita il forum della community CHOICE.

Visita la comunità CHOICE
Bandiere della Prima Nazione

Noi di CHOICE riconosciamo il popolo Gadigal, i tradizionali custodi di questa terra su cui lavoriamo, e rendiamo omaggio al popolo delle Prime Nazioni di questo paese. CHOICE sostiene la Dichiarazione di Uluru dal cuore e la voce delle Prime Nazioni al Parlamento.

  • Sep 08, 2023
  • 92
  • 0