JavaScript er deaktivert
Hvis mulig, vennligst aktiver JavaScript for en forbedret opplevelse på CHOICE-nettstedet.
Trenger å vite
- Ettersom AI blir stadig mer mainstream, må vi være klar over risikoen denne teknologien utgjør
- Vi ser allerede eksempler på skade som følge av bruk av kunstig intelligens, for eksempel diskriminerende utfall fra automatisk prising
- CHOICE har sendt inn en innsending til myndighetene som beskriver våre forslag til hvordan forbrukere kan beskyttes mot risikoen ved AI, inkludert å lage lover risikobasert og utnevne sterke regulatorer
En gang begrenset til akademiske artikler og science fiction, virker 2023 som året kunstig intelligens (AI) offisielt flyttet ut av forskningslaboratoriene og inn i forbrukermarkedet. AI-baserte verktøy ChatGPT og DALL-E har blitt kjente navn, og AI lover å levere både produktivitet og moro.
Men selv om AI har sine fordeler, bør vi ikke ignorere risikoen. Bedrifter ser etter AI for å øke lønnsomheten, ofte på bekostning av forbrukerne.
Risikoen ved kunstig intelligens
Våre undersøkelser i løpet av det siste året har funnet ut at ansiktsgjenkjenningsteknologi har kommet inn i butikker, puber og klubber og stadioner. Denne teknologien lar bedrifter automatisk nekte tilgang til personer basert på identitetsdatabaser, men det har eksperter fant en oppsiktsvekkende grad av unøyaktighet, spesielt for funksjonshemmede og fargede personer (spesielt kvinner).
AI blir også brukt til å behandle mer data enn noen gang før. Bedrifter bruker til og med algoritmer for å ta avgjørelser om hvor mye vi skal betale for ting, fra dagligvarer til forsikrings- eller abonnementsplaner og til og med boliglånene våre.
Chatboter som bruker ChatGPT kan replikere falsk informasjon i svarene sine eller gi farlige råd
Men når prisbeslutninger er helt automatiserte kan det føre til diskriminerende utfall, som høyere premier for personer fra marginalisert bakgrunn eller økte priser for eldre mennesker.
Generativ AI som ChatGPT kommer med sitt eget sett med farer. Chatboter som bruker ChatGPT kan replikere falsk informasjon i svarene sine eller gi farlige råd. Federal Trade Commission, USAs konkurransevakthund, undersøker for tiden om ChatGPT har skadet folk ved å lage falsk informasjon, og ser også nærmere på dens personvernpraksis.
Hva må gjøres for å beskytte forbrukerne?
Bedrifter bruker algoritmer for å ta beslutninger om hvor mye folk skal betale for ting som kan resultere i urettferdige utfall.
AI-lover bør være risikobasert
Eksperter har slått alarm om disse risikoene i ganske lang tid, men regjeringer rundt om i verden er bare så vidt å fange opp. Australia kjører nå sin egen konsultasjon om kunstig intelligens, og CHOICE har nettopp sendt inn våre forslag til hvordan myndighetene kan beskytte forbrukere mot disse risikoene.
I kjernen av vårt bidrag er behovet for en risikobasert tilnærming til AI, akkurat som EU foreslår. Et risikobasert rammeverk kategoriserer AI-aktiviteter fra de som anses som minimal risiko og derfor krever få begrensninger til de som har høy risiko som er begrenset eller til og med forbudt.
Vi foreslo også at AI-lovene våre skulle kodifisere forbrukernes rettigheter til sikkerhet, rettferdighet, ansvarlighet, pålitelighet og åpenhet.
Den føderale regjeringen bør også styrke eksisterende lover som den australske forbrukerloven og personvernloven for å sikre at folk er fullstendig beskyttet mot misbruk eller utnyttelse av AI.
Sterke regulatorer er avgjørende
Men det er ikke nok å lage nye lover – vi trenger sterke regulatorer for å håndheve disse lovene. CHOICE etterlyser en velfinansiert AI-kommissær med en rekke reguleringsmyndigheter, inkludert sivile og strafferettslige straffemyndigheter.
En AI-kommissær bør utnytte sin spesialistekspertise i å samarbeide med eksisterende reguleringsorganer som er ansvarlige for å overvåke sektorer av økonomien som er påvirket av kunstig intelligens, for eksempel forbrukerrettigheter, konkurranse, personvern og menneskelig rettigheter.
Big tech ønsker å regulere seg selv, men historien viser at disse virksomhetene ikke kan stole på å skrive sine egne regler
Big tech ønsker å regulere seg selv, men historien viser at disse virksomhetene ikke kan stole på å skrive sine egne regler. Australia bør følge ledelsen av EU og Canada og legge grunnlaget for et rettferdig marked der bedrifter må garantere trygge, rettferdige, transparente, pålitelige og ansvarlige AI-systemer før de frigis.
Ikke bare ville dette beskytte samfunnet vårt mot skade, det ville også oppmuntre innovasjon og fremme ansvarlig bruk av AI.
Du kan lese hele innlegget vårt til regjeringen her.
Arkivbilder: Getty, med mindre annet er oppgitt.
For å dele tankene dine eller stille et spørsmål, besøk CHOICE Community-forumet.
![First Nation-flagg](/f/44baf62595eea085ccb184dcf15311b7.png)
Vi i CHOICE anerkjenner Gadigal-folket, de tradisjonelle vokterne av dette landet vi jobber på, og viser respekt til First Nations-folket i dette landet. CHOICE støtter Uluru-erklæringen fra hjertet og en første nasjoners stemme til parlamentet.