تحتاج أستراليا إلى لوائح قوية للذكاء الاصطناعي

تم تعطيل الجافا سكريبت
إذا كان ذلك ممكنًا، يرجى تمكين JavaScript للحصول على تجربة محسنة على موقع Choice الإلكتروني.

بحاجة إلى معرفة

  • مع تزايد انتشار الذكاء الاصطناعي، يتعين علينا أن نكون على دراية بالمخاطر التي تشكلها هذه التكنولوجيا
  • ونحن نشهد بالفعل أمثلة على الضرر الناجم عن استخدام الذكاء الاصطناعي، مثل النتائج التمييزية الناجمة عن التسعير التلقائي
  • قدمت شركة Choice تقريرًا إلى الحكومة يوضح اقتراحاتنا حول كيفية حماية المستهلكين من مخاطر الذكاء الاصطناعي، بما في ذلك جعل القوانين قائمة على المخاطر وتعيين هيئات تنظيمية قوية.

بعد أن كان يقتصر على الأبحاث الأكاديمية والخيال العلمي، يبدو أن عام 2023 هو العام الذي انتقل فيه الذكاء الاصطناعي (AI) رسميًا من مختبرات الأبحاث إلى السوق الاستهلاكية. أصبحت الأدوات المستندة إلى الذكاء الاصطناعي ChatGPT وDALL-E أسماء مألوفة، ويعد الذكاء الاصطناعي بتقديم الإنتاجية والمتعة.

ولكن على الرغم من أن الذكاء الاصطناعي له فوائده، فلا ينبغي لنا أن نتجاهل المخاطر. تتطلع الشركات إلى الذكاء الاصطناعي لزيادة الربحية، وغالبًا ما يكون ذلك على حساب المستهلكين.

مخاطر الذكاء الاصطناعي 

توصلت تحقيقاتنا على مدار العام الماضي إلى أن تقنية التعرف على الوجه قد شقت طريقها إلى متاجر البيع بالتجزئة والحانات والنوادي والملاعب. تسمح هذه التقنية للشركات برفض الوصول إلى الأشخاص تلقائيًا بناءً على قواعد بيانات الهوية، لكن الخبراء فعلوا ذلك وجدت معدلًا مذهلاً من عدم الدقة، خاصة بالنسبة للأشخاص ذوي الإعاقة والأشخاص الملونين (خاصة نحيف).

يتم استخدام الذكاء الاصطناعي أيضًا لمعالجة المزيد من البيانات أكثر من أي وقت مضى. حتى أن الشركات تستخدم الخوارزميات لاتخاذ قرارات بشأن المبلغ الذي يجب أن ندفعه مقابل الأشياء، بدءًا من البقالة إلى خطط التأمين أو الاشتراك وحتى قروض المنازل.

يمكن لروبوتات الدردشة التي تستخدم ChatGPT تكرار المعلومات الخاطئة في إجاباتها أو تقديم نصائح خطيرة

ولكن عندما تكون قرارات التسعير آلية بالكامل، فقد يؤدي ذلك إلى نتائج تمييزية، مثل ارتفاع أقساط التأمين للأشخاص من الخلفيات المهمشة أو زيادة الأسعار لكبار السن.

يأتي الذكاء الاصطناعي التوليدي مثل ChatGPT مع مجموعة المخاطر الخاصة به. يمكن لروبوتات الدردشة التي تستخدم ChatGPT تكرار المعلومات الخاطئة في إجاباتها أو تقديم نصائح خطيرة. تقوم لجنة التجارة الفيدرالية، وهي هيئة مراقبة المنافسة في الولايات المتحدة، حاليًا بالتحقيق فيما إذا كان ChatGPT قد ألحق الضرر بالأشخاص من خلال إنشاء معلومات كاذبة، كما تبحث أيضًا في ممارسات الخصوصية الخاصة بها.

ما الذي يجب فعله لحماية المستهلكين؟

شخص يعرض أرقام المبيعات على جهاز لوحي باستخدام قلم

تستخدم الشركات الخوارزميات لاتخاذ قرارات بشأن المبلغ الذي يجب أن يدفعه الأشخاص مقابل الأشياء التي يمكن أن تؤدي إلى نتائج غير عادلة.

يجب أن تكون قوانين الذكاء الاصطناعي قائمة على المخاطر

لقد ظل الخبراء يدقون ناقوس الخطر بشأن هذه المخاطر منذ بعض الوقت، لكن الحكومات في جميع أنحاء العالم بدأت للتو في اللحاق بالركب. وتجري أستراليا الآن مشاوراتها الخاصة بشأن الذكاء الاصطناعي، وقد قدمت مؤسسة تشويس للتو اقتراحاتنا حول الكيفية التي يمكن بها للحكومة حماية المستهلكين من هذه المخاطر.

في قلب تقريرنا هناك الحاجة إلى اتباع نهج قائم على المخاطر في التعامل مع الذكاء الاصطناعي، تمامًا كما يقترح الاتحاد الأوروبي. يصنف الإطار القائم على المخاطر أنشطة الذكاء الاصطناعي من تلك التي تعتبر ذات مخاطر قليلة وبالتالي تتطلب قيودًا قليلة على تلك التي تمثل مخاطر عالية والمقيدة أو حتى المحظورة.

واقترحنا أيضًا أن تعمل قوانين الذكاء الاصطناعي لدينا على تقنين حقوق المستهلك فيما يتعلق بالسلامة والعدالة والمساءلة والموثوقية والشفافية.

يجب على الحكومة الفيدرالية أيضًا تعزيز القوانين الحالية مثل قانون المستهلك الأسترالي وقانون الخصوصية لضمان حماية الأشخاص بشكل شامل من سوء استخدام الذكاء الاصطناعي أو استغلاله.

إن وجود هيئات تنظيمية قوية أمر ضروري

لكن سن قوانين جديدة لا يكفي – فنحن بحاجة إلى جهات تنظيمية قوية لإنفاذ هذه القوانين. تدعو منظمة Choice إلى تعيين مفوض للذكاء الاصطناعي يتمتع بتمويل جيد ويتمتع بمجموعة من السلطات التنظيمية بما في ذلك صلاحيات العقوبات المدنية والجنائية.

ينبغي لمفوض الذكاء الاصطناعي الاستفادة من خبرته المتخصصة في التعاون مع الهيئات التنظيمية المسؤولة القائمة للإشراف على قطاعات الاقتصاد التي تتأثر بالذكاء الاصطناعي، مثل حقوق المستهلك والمنافسة والخصوصية والإنسان حقوق.

تريد شركات التكنولوجيا الكبرى تنظيم نفسها، لكن التاريخ يثبت أنه لا يمكن الوثوق بهذه الشركات لكتابة قواعدها الخاصة

تريد شركات التكنولوجيا الكبرى تنظيم نفسها، لكن التاريخ يثبت أنه لا يمكن الوثوق بهذه الشركات لكتابة قواعدها الخاصة. يجب على أستراليا أن تحذو حذو الاتحاد الأوروبي وكندا وأن تضع الأسس لسوق عادلة حيث يجب على الشركات أن تفعل ذلك ضمان أنظمة ذكاء اصطناعي آمنة وعادلة وشفافة وموثوقة وخاضعة للمساءلة قبل إطلاقها.

وهذا لن يحمي مجتمعنا من الضرر فحسب، بل سيشجعه أيضًا الابتكار وتعزيز الاستخدام المسؤول للذكاء الاصطناعي.

يمكنك قراءة تقريرنا الكامل للحكومة هنا.

نحن نهتم بالدقة. هل ترى شيئًا غير صحيح تمامًا في هذه المقالة؟ دعنا نعرف أو اقرأ المزيد عنه التحقق من الحقائق في Choice.

مخزون الصور: جيتي، ما لم ينص على خلاف ذلك.

اختيار رمز المجتمع

لمشاركة أفكارك أو طرح سؤال، قم بزيارة منتدى مجتمع Choice.

قم بزيارة مجتمع الاختيار
أعلام الأمم الأولى

نحن في Choice نعرب عن تقديرنا لشعب Gadigal، الأوصياء التقليديين على هذه الأرض التي نعمل عليها، ونعرب عن احترامنا لشعب الأمم الأولى في هذا البلد. تدعم منظمة Choice بيان أولورو من القلب وصوت الأمم الأولى إلى البرلمان.

  • Sep 08, 2023
  • 9
  • 0