Australia trenger sterke regler for kunstig intelligens

JavaScript er deaktivert
Hvis mulig, vennligst aktiver JavaScript for en forbedret opplevelse på CHOICE-nettstedet.

Trenger å vite

  • Ettersom AI blir stadig mer mainstream, må vi være klar over risikoen denne teknologien utgjør
  • Vi ser allerede eksempler på skade som følge av bruk av kunstig intelligens, for eksempel diskriminerende utfall fra automatisk prising
  • CHOICE har sendt inn en innsending til myndighetene som beskriver våre forslag til hvordan forbrukere kan beskyttes mot risikoen ved AI, inkludert å lage lover risikobasert og utnevne sterke regulatorer

En gang begrenset til akademiske artikler og science fiction, virker 2023 som året kunstig intelligens (AI) offisielt flyttet ut av forskningslaboratoriene og inn i forbrukermarkedet. AI-baserte verktøy ChatGPT og DALL-E har blitt kjente navn, og AI lover å levere både produktivitet og moro.

Men selv om AI har sine fordeler, bør vi ikke ignorere risikoen. Bedrifter ser etter AI for å øke lønnsomheten, ofte på bekostning av forbrukerne.

Risikoen ved kunstig intelligens 

Våre undersøkelser i løpet av det siste året har funnet ut at ansiktsgjenkjenningsteknologi har kommet inn i butikker, puber og klubber og stadioner. Denne teknologien lar bedrifter automatisk nekte tilgang til personer basert på identitetsdatabaser, men det har eksperter fant en oppsiktsvekkende grad av unøyaktighet, spesielt for funksjonshemmede og fargede personer (spesielt kvinner).

AI blir også brukt til å behandle mer data enn noen gang før. Bedrifter bruker til og med algoritmer for å ta avgjørelser om hvor mye vi skal betale for ting, fra dagligvarer til forsikrings- eller abonnementsplaner og til og med boliglånene våre.

Chatboter som bruker ChatGPT kan replikere falsk informasjon i svarene sine eller gi farlige råd

Men når prisbeslutninger er helt automatiserte kan det føre til diskriminerende utfall, som høyere premier for personer fra marginalisert bakgrunn eller økte priser for eldre mennesker.

Generativ AI som ChatGPT kommer med sitt eget sett med farer. Chatboter som bruker ChatGPT kan replikere falsk informasjon i svarene sine eller gi farlige råd. Federal Trade Commission, USAs konkurransevakthund, undersøker for tiden om ChatGPT har skadet folk ved å lage falsk informasjon, og ser også nærmere på dens personvernpraksis.

Hva må gjøres for å beskytte forbrukerne?

person som viser salgstall på nettbrett ved hjelp av en pekepenn

Bedrifter bruker algoritmer for å ta beslutninger om hvor mye folk skal betale for ting som kan resultere i urettferdige utfall.

AI-lover bør være risikobasert

Eksperter har slått alarm om disse risikoene i ganske lang tid, men regjeringer rundt om i verden er bare så vidt å fange opp. Australia kjører nå sin egen konsultasjon om kunstig intelligens, og CHOICE har nettopp sendt inn våre forslag til hvordan myndighetene kan beskytte forbrukere mot disse risikoene.

I kjernen av vårt bidrag er behovet for en risikobasert tilnærming til AI, akkurat som EU foreslår. Et risikobasert rammeverk kategoriserer AI-aktiviteter fra de som anses som minimal risiko og derfor krever få begrensninger til de som har høy risiko som er begrenset eller til og med forbudt.

Vi foreslo også at AI-lovene våre skulle kodifisere forbrukernes rettigheter til sikkerhet, rettferdighet, ansvarlighet, pålitelighet og åpenhet.

Den føderale regjeringen bør også styrke eksisterende lover som den australske forbrukerloven og personvernloven for å sikre at folk er fullstendig beskyttet mot misbruk eller utnyttelse av AI.

Sterke regulatorer er avgjørende

Men det er ikke nok å lage nye lover – vi trenger sterke regulatorer for å håndheve disse lovene. CHOICE etterlyser en velfinansiert AI-kommissær med en rekke reguleringsmyndigheter, inkludert sivile og strafferettslige straffemyndigheter.

En AI-kommissær bør utnytte sin spesialistekspertise i å samarbeide med eksisterende reguleringsorganer som er ansvarlige for å overvåke sektorer av økonomien som er påvirket av kunstig intelligens, for eksempel forbrukerrettigheter, konkurranse, personvern og menneskelig rettigheter.

Big tech ønsker å regulere seg selv, men historien viser at disse virksomhetene ikke kan stole på å skrive sine egne regler

Big tech ønsker å regulere seg selv, men historien viser at disse virksomhetene ikke kan stole på å skrive sine egne regler. Australia bør følge ledelsen av EU og Canada og legge grunnlaget for et rettferdig marked der bedrifter må garantere trygge, rettferdige, transparente, pålitelige og ansvarlige AI-systemer før de frigis.

Ikke bare ville dette beskytte samfunnet vårt mot skade, det ville også oppmuntre innovasjon og fremme ansvarlig bruk av AI.

Du kan lese hele innlegget vårt til regjeringen her.

Vi bryr oss om nøyaktighet. Ser du noe som ikke stemmer i denne artikkelen? Gi oss beskjed eller les mer om faktasjekk hos CHOICE.

Arkivbilder: Getty, med mindre annet er oppgitt.

VALG fellesskapsikon

For å dele tankene dine eller stille et spørsmål, besøk CHOICE Community-forumet.

Besøk CHOICE-fellesskapet
First Nation-flagg

Vi i CHOICE anerkjenner Gadigal-folket, de tradisjonelle vokterne av dette landet vi jobber på, og viser respekt til First Nations-folket i dette landet. CHOICE støtter Uluru-erklæringen fra hjertet og en første nasjoners stemme til parlamentet.

  • Sep 08, 2023
  • 97
  • 0