Australia potrzebuje rygorystycznych przepisów dotyczących sztucznej inteligencji

JavaScript jest wyłączony
Jeśli to możliwe, włącz JavaScript, aby poprawić jakość korzystania ze strony internetowej CHOICE.

Potrzebuję wiedzieć

  • Ponieważ sztuczna inteligencja staje się coraz bardziej popularna, musimy zdawać sobie sprawę z zagrożeń, jakie stwarza ta technologia
  • Widzimy już przykłady szkód wynikających ze stosowania sztucznej inteligencji, takie jak dyskryminacyjne skutki stosowania automatycznych cen
  • CHOICE przedłożył rządowi wniosek, w którym przedstawił nasze sugestie dotyczące sposobów ochrony konsumentów przed zagrożeniami związanymi ze sztuczną inteligencją, w tym tworzenie przepisów opartych na ryzyku i wyznaczanie silnych organów regulacyjnych

Rok 2023, niegdyś ograniczony do artykułów akademickich i fantastyki naukowej, wydaje się rokiem, w którym sztuczna inteligencja (AI) oficjalnie wyjdzie z laboratoriów badawczych na rynek konsumencki. Narzędzia oparte na sztucznej inteligencji ChatGPT i DALL-E stały się powszechnie znane, a sztuczna inteligencja obiecuje zapewnić zarówno produktywność, jak i zabawę.

Chociaż sztuczna inteligencja ma swoje zalety, nie powinniśmy ignorować ryzyka. Firmy poszukują sztucznej inteligencji, aby zwiększyć rentowność, często kosztem konsumentów.

Zagrożenia sztucznej inteligencji 

Nasze badania przeprowadzone w zeszłym roku wykazały, że technologia rozpoznawania twarzy przedostała się do sklepów detalicznych, pubów, klubów i stadionów. Technologia ta pozwala firmom automatycznie odmawiać dostępu osobom na podstawie baz danych tożsamości, ale eksperci to zrobili odkryli zaskakujący poziom niedokładności, szczególnie w przypadku osób niepełnosprawnych i osób kolorowych (szczególnie kobiety).

Sztuczna inteligencja jest również wykorzystywana do przetwarzania większej ilości danych niż kiedykolwiek wcześniej. Firmy nawet używają algorytmów do podejmowania decyzji o tym, ile powinniśmy płacić za różne rzeczy, od artykułów spożywczych po ubezpieczenia lub plany abonamentowe, a nawet kredyty mieszkaniowe.

Chatboty korzystające z ChatGPT mogą powielać fałszywe informacje w swoich odpowiedziach lub udzielać niebezpiecznych porad

Kiedy jednak decyzje cenowe są całkowicie zautomatyzowane, może to prowadzić do dyskryminacyjnych skutków, takich jak wyższe składki dla osób ze środowisk marginalizowanych lub wyższe ceny dla osób starszych.

Generacyjna sztuczna inteligencja, taka jak ChatGPT, wiąże się z własnym zestawem zagrożeń. Chatboty korzystające z ChatGPT mogą powielać fałszywe informacje w swoich odpowiedziach lub udzielać niebezpiecznych porad. Federalna Komisja Handlu, amerykański organ nadzorujący konkurencję, bada obecnie, czy ChatGPT nie wyrządził ludziom krzywdy poprzez tworzenie fałszywych informacji, a także przygląda się swoim praktykom w zakresie ochrony prywatności.

Co należy zrobić, aby chronić konsumentów?

osoba pokazująca dane sprzedaży na tablecie za pomocą rysika

Firmy korzystają z algorytmów, aby podejmować decyzje dotyczące tego, ile ludzie powinni płacić za rzeczy, co może skutkować nieuczciwymi wynikami.

Przepisy dotyczące sztucznej inteligencji powinny opierać się na ryzyku

Eksperci alarmują w związku z tymi zagrożeniami od dłuższego czasu, ale rządy na całym świecie dopiero nadrabiają zaległości. Australia prowadzi obecnie własne konsultacje na temat sztucznej inteligencji, a zespół CHOICE właśnie przedstawił nasze sugestie dotyczące tego, w jaki sposób rząd może chronić konsumentów przed tymi zagrożeniami.

U podstaw naszego wniosku leży potrzeba podejścia do sztucznej inteligencji opartego na ryzyku, tak jak proponuje Unia Europejska. Ramy oparte na ryzyku kategoryzują działania sztucznej inteligencji od tych, które są uważane za minimalne ryzyko i dlatego wymagają niewielu ograniczeń, do tych, które wiążą się z wysokim ryzykiem, które są ograniczone lub nawet zabronione.

Zasugerowaliśmy również, że nasze przepisy dotyczące sztucznej inteligencji powinny skodyfikować prawa konsumentów do bezpieczeństwa, uczciwości, odpowiedzialności, niezawodności i przejrzystości.

Rząd federalny powinien także wzmocnić istniejące przepisy, takie jak australijskie prawo konsumenckie i ustawa o prywatności, aby zapewnić ludziom kompleksową ochronę przed niewłaściwym wykorzystaniem lub wykorzystywaniem sztucznej inteligencji.

Niezbędne są silne regulatory

Jednak tworzenie nowych przepisów nie wystarczy – potrzebujemy silnych organów regulacyjnych, aby egzekwować te przepisy. CHOICE wzywa do powołania dobrze finansowanego komisarza ds. sztucznej inteligencji posiadającego szereg uprawnień regulacyjnych, w tym uprawnienia w zakresie kar cywilnych i karnych.

Komisarz ds. sztucznej inteligencji powinien wykorzystać swoją specjalistyczną wiedzę specjalistyczną we współpracy z istniejącymi właściwymi organami regulacyjnymi za nadzorowanie sektorów gospodarki, na które wpływa sztuczna inteligencja, takich jak prawa konsumentów, konkurencja, prywatność i prawa człowieka prawa.

Wielka technologia chce sama się regulować, ale historia pokazuje, że tym firmom nie można ufać, że napiszą własne zasady

Wielka technologia chce sama się regulować, ale historia pokazuje, że tym firmom nie można ufać, że napiszą własne zasady. Australia powinna pójść za przykładem Unii Europejskiej i Kanady i stworzyć podstawy sprawiedliwego rynku, na którym muszą to robić przedsiębiorstwa zagwarantować bezpieczne, uczciwe, przejrzyste, niezawodne i odpowiedzialne systemy sztucznej inteligencji przed ich wypuszczeniem.

Nie tylko chroniłoby to naszą społeczność przed krzywdą, ale także zachęcałoby innowacje i promować odpowiedzialne wykorzystanie sztucznej inteligencji.

Możesz przeczytać cały nasz wniosek skierowany do rządu Tutaj.

Dbamy o dokładność. Widzisz coś, co jest nie tak w tym artykule? Daj nam znać lub przeczytaj więcej na temat sprawdzanie faktów w CHOICE.

Obrazy stockowe: Getty, chyba że zaznaczono inaczej.

Ikona społeczności WYBÓR

Aby podzielić się swoimi przemyśleniami lub zadać pytanie, odwiedź forum społeczności CHOICE.

Odwiedź społeczność CHOICE
Flagi Pierwszego Narodu

W CHOICE wyrażamy uznanie dla ludu Gadigal, tradycyjnych opiekunów tej ziemi, na której pracujemy, i składamy wyrazy szacunku ludności Pierwszych Narodów w tym kraju. CHOICE popiera oświadczenie Uluru płynące z głębi serca i głos Pierwszych Narodów skierowany do parlamentu.

  • Sep 08, 2023
  • 33
  • 0