JavaScript je zakázán
Je-li to možné, povolte JavaScript pro lepší zážitek na webu CHOICE.
Musím vědět
- Jak se umělá inteligence stává stále běžnějším, musíme si být vědomi rizik, která tato technologie představuje
- Již nyní vidíme příklady škod vyplývajících z používání umělé inteligence, jako jsou diskriminační výsledky automatické tvorby cen
- Společnost CHOICE předložila vládě návrhy, jak mohou být spotřebitelé chráněni před riziky AI, včetně tvorby zákonů založených na riziku a jmenování silných regulátorů.
Jakmile se rok 2023 omezí na akademické práce a sci-fi, jeví se jako rok, kdy se umělá inteligence (AI) oficiálně přesunula z výzkumných laboratoří na spotřebitelský trh. Nástroje ChatGPT a DALL-E založené na umělé inteligenci se staly známými a umělá inteligence slibuje jak produktivitu, tak zábavu.
Ale ačkoli má AI své výhody, neměli bychom ignorovat rizika. Firmy hledají umělou inteligenci, aby zvýšily ziskovost, často na úkor spotřebitelů.
Rizika umělé inteligence
Naše vyšetřování za poslední rok zjistilo, že technologie rozpoznávání obličeje si prorazila cestu do maloobchodních prodejen, hospod, klubů a stadionů. Tato technologie umožňuje podnikům automaticky odmítnout přístup lidem na základě databází identit, ale odborníci ano zjistili překvapivou míru nepřesností, zejména u lidí se zdravotním postižením a lidí s jinou barvou pleti (zejména ženy).
Umělá inteligence se také používá ke zpracování více dat než kdykoli předtím. Firmy dokonce používají algoritmy k rozhodování o tom, kolik bychom měli platit za věci, od našich potravin po pojištění nebo plány předplatného a dokonce i naše půjčky na bydlení.
Chatboti používající ChatGPT mohou ve svých odpovědích replikovat nepravdivé informace nebo poskytovat nebezpečné rady
Ale když jsou rozhodování o cenách zcela automatizovaná, může to vést k diskriminačním výsledkům, jako je vyšší pojistné pro lidi z marginalizovaného prostředí nebo zvýšené ceny pro starší lidi.
Generativní AI jako ChatGPT přichází s vlastní sadou nebezpečí. Chatboti používající ChatGPT mohou ve svých odpovědích replikovat nepravdivé informace nebo poskytovat nebezpečné rady. Federal Trade Commission, americký dozorčí orgán pro hospodářskou soutěž, v současné době vyšetřuje, zda ChatGPT nepoškodil lidi vytvářením nepravdivých informací, a také se zabývá jejími praktikami ochrany osobních údajů.
Co je třeba udělat pro ochranu spotřebitelů?
Firmy používají algoritmy k rozhodování o tom, kolik by lidé měli platit za věci, které mohou vést k nespravedlivým výsledkům.
Zákony o umělé inteligenci by měly být založeny na riziku
Odborníci na tato rizika bijí na poplach již nějakou dobu, ale vlády po celém světě je teprve dohánějí. Austrálie nyní provozuje vlastní konzultace o AI a CHOICE právě předložila naše návrhy, jak může vláda chránit spotřebitele před těmito riziky.
Jádrem našeho příspěvku je potřeba přístupu k umělé inteligenci založeného na riziku, jak navrhuje Evropská unie. Rámec založený na rizicích kategorizuje aktivity umělé inteligence od těch, které jsou považovány za minimální riziko, a proto vyžadují jen málo omezení k těm, které jsou vysoce rizikové, které jsou omezeny nebo dokonce zakázány.
Také jsme navrhli, aby naše zákony o umělé inteligenci kodifikovaly práva spotřebitelů na bezpečnost, spravedlnost, odpovědnost, spolehlivost a transparentnost.
Federální vláda by také měla posílit stávající zákony, jako je australský spotřebitelský zákon a zákon o soukromí, aby zajistila, že lidé budou komplexně chráněni před zneužitím nebo vykořisťováním AI.
Nezbytné jsou silné regulátory
Vytváření nových zákonů však nestačí – potřebujeme silné regulační orgány, které budou tyto zákony prosazovat. CHOICE požaduje dobře financovaného komisaře pro umělou inteligenci s řadou regulačních pravomocí, včetně pravomocí v oblasti občanskoprávních a trestních sankcí.
Komisař pro umělou inteligenci by měl využít své odborné znalosti při spolupráci se stávajícími odpovědnými regulačními orgány pro dohled nad sektory ekonomiky, které jsou ovlivněny umělou inteligencí, jako jsou práva spotřebitelů, konkurence, soukromí a lidská práv.
Velká technologie se chce regulovat sama, ale historie dokazuje, že těmto podnikům nelze věřit, že si napíší vlastní pravidla
Velká technologie se chce regulovat sama, ale historie dokazuje, že těmto podnikům nelze věřit, že si napíší vlastní pravidla. Austrálie by měla následovat příklad Evropské unie a Kanady a položit základy spravedlivého trhu, na kterém podniky musí zaručit bezpečné, spravedlivé, transparentní, spolehlivé a odpovědné systémy umělé inteligence před jejich uvolněním.
Nejen, že by to ochránilo naši komunitu před poškozením, ale také by to povzbudilo inovace a podporovat odpovědné používání umělé inteligence.
Můžete si přečíst naše úplné podání vládě tady.
Skladové obrázky: Getty, pokud není uvedeno jinak.
Chcete-li se podělit o své myšlenky nebo položit otázku, navštivte komunitní fórum CHOICE.
![Vlajky prvního národa](/f/44baf62595eea085ccb184dcf15311b7.png)
My ve CHOICE uznáváme gadigalský lid, tradiční správce této země, na které pracujeme, a vzdáváme úctu lidu Prvních národů této země. CHOICE podporuje prohlášení Uluru ze srdce a hlas prvního národa pro parlament.