Η JavaScript είναι απενεργοποιημένη
Εάν είναι δυνατόν, ενεργοποιήστε το JavaScript για μια βελτιωμένη εμπειρία στον ιστότοπο CHOICE.
Πρέπει να ξέρω
- Καθώς η τεχνητή νοημοσύνη γίνεται ολοένα και πιο mainstream, πρέπει να γνωρίζουμε τους κινδύνους που ενέχει αυτή η τεχνολογία
- Βλέπουμε ήδη παραδείγματα βλάβης που προκύπτει από τη χρήση τεχνητής νοημοσύνης, όπως μεροληπτικά αποτελέσματα από την αυτόματη τιμολόγηση
- Η CHOICE υπέβαλε μια υποβολή στην κυβέρνηση περιγράφοντας τις προτάσεις μας σχετικά με τον τρόπο προστασίας των καταναλωτών από τους κινδύνους της τεχνητής νοημοσύνης, συμπεριλαμβανομένης της θέσπισης νόμων με βάση τους κινδύνους και του διορισμού ισχυρών ρυθμιστικών αρχών
Μόλις περιοριστεί σε ακαδημαϊκές εργασίες και επιστημονική φαντασία, το 2023 μοιάζει με τη χρονιά που η τεχνητή νοημοσύνη (AI) βγήκε επίσημα από τα ερευνητικά εργαστήρια και στην καταναλωτική αγορά. Τα εργαλεία που βασίζονται στην τεχνητή νοημοσύνη ChatGPT και DALL-E έχουν γίνει γνωστά ονόματα και η τεχνητή νοημοσύνη υπόσχεται να προσφέρει παραγωγικότητα και διασκέδαση.
Όμως, παρόλο που η τεχνητή νοημοσύνη έχει τα πλεονεκτήματά της, δεν πρέπει να αγνοούμε τους κινδύνους. Οι επιχειρήσεις αναζητούν την τεχνητή νοημοσύνη για να αυξήσουν την κερδοφορία, συχνά εις βάρος των καταναλωτών.
Οι κίνδυνοι της τεχνητής νοημοσύνης
Οι έρευνές μας τον περασμένο χρόνο διαπίστωσαν ότι η τεχνολογία αναγνώρισης προσώπου έχει ανοίξει το δρόμο της σε καταστήματα λιανικής, παμπ και κλαμπ και στάδια. Αυτή η τεχνολογία επιτρέπει στις επιχειρήσεις να αρνούνται αυτόματα την πρόσβαση σε άτομα που βασίζονται σε βάσεις δεδομένων ταυτότητας, αλλά οι ειδικοί το έχουν κάνει βρήκε ένα εκπληκτικό ποσοστό ανακρίβειας, ειδικά για άτομα με αναπηρίες και έγχρωμα άτομα (ιδιαίτερα γυναίκες).
Το AI χρησιμοποιείται επίσης για την επεξεργασία περισσότερων δεδομένων από ποτέ. Οι επιχειρήσεις χρησιμοποιούν ακόμη και αλγόριθμους για να λάβουν αποφάσεις σχετικά με το πόσα θα πρέπει να πληρώσουμε για πράγματα, από τα παντοπωλεία μας μέχρι τα προγράμματα ασφάλισης ή συνδρομής και ακόμη και τα στεγαστικά μας δάνεια.
Τα chatbot που χρησιμοποιούν ChatGPT μπορούν να αναπαράγουν ψευδείς πληροφορίες στις απαντήσεις τους ή να παρέχουν επικίνδυνες συμβουλές
Αλλά όταν οι αποφάσεις τιμολόγησης είναι πλήρως αυτοματοποιημένες, μπορεί να οδηγήσει σε μεροληπτικά αποτελέσματα, όπως υψηλότερα ασφάλιστρα για άτομα από περιθωριοποιημένα περιβάλλοντα ή αυξημένες τιμές για άτομα μεγαλύτερης ηλικίας.
Το Generative AI όπως το ChatGPT έρχεται με το δικό του σύνολο κινδύνων. Τα chatbot που χρησιμοποιούν ChatGPT μπορούν να αναπαράγουν ψευδείς πληροφορίες στις απαντήσεις τους ή να παρέχουν επικίνδυνες συμβουλές. Η Ομοσπονδιακή Επιτροπή Εμπορίου, ο επόπτης ανταγωνισμού των ΗΠΑ, διερευνά επί του παρόντος εάν το ChatGPT έχει βλάψει ανθρώπους δημιουργώντας ψευδείς πληροφορίες και εξετάζει επίσης τις πρακτικές απορρήτου του.
Τι πρέπει να γίνει για την προστασία των καταναλωτών;
Οι επιχειρήσεις χρησιμοποιούν αλγόριθμους για να λάβουν αποφάσεις σχετικά με το πόσα θα πρέπει να πληρώσουν οι άνθρωποι για πράγματα που μπορεί να οδηγήσουν σε άδικα αποτελέσματα.
Οι νόμοι για την τεχνητή νοημοσύνη θα πρέπει να βασίζονται στον κίνδυνο
Οι ειδικοί κρούουν τον κώδωνα του κινδύνου για αυτούς τους κινδύνους εδώ και αρκετό καιρό, αλλά οι κυβερνήσεις σε όλο τον κόσμο μόλις καλύψουν τη διαφορά. Η Αυστραλία διεξάγει τώρα τη δική της διαβούλευση για την τεχνητή νοημοσύνη και η CHOICE μόλις υπέβαλε τις προτάσεις μας για το πώς η κυβέρνηση μπορεί να προστατεύσει τους καταναλωτές από αυτούς τους κινδύνους.
Στο επίκεντρο της υποβολής μας βρίσκεται η ανάγκη για μια προσέγγιση με βάση τον κίνδυνο για την τεχνητή νοημοσύνη, όπως ακριβώς προτείνει η Ευρωπαϊκή Ένωση. Ένα πλαίσιο βασισμένο στον κίνδυνο κατηγοριοποιεί τις δραστηριότητες τεχνητής νοημοσύνης από εκείνες που θεωρούνται ελάχιστου κινδύνου και επομένως απαιτούν λίγους περιορισμούς σε εκείνες που είναι υψηλού κινδύνου που είναι περιορισμένες ή ακόμα και απαγορευμένες.
Προτείναμε επίσης ότι οι νόμοι μας για την τεχνητή νοημοσύνη θα πρέπει να κωδικοποιούν τα δικαιώματα των καταναλωτών για ασφάλεια, δικαιοσύνη, υπευθυνότητα, αξιοπιστία και διαφάνεια.
Η ομοσπονδιακή κυβέρνηση θα πρέπει επίσης να ενισχύσει τους υφιστάμενους νόμους, όπως ο Αυστραλιανός νόμος περί καταναλωτών και ο νόμος περί απορρήτου, για να διασφαλίσει ότι οι άνθρωποι προστατεύονται πλήρως από την κακή χρήση ή την εκμετάλλευση της τεχνητής νοημοσύνης.
Ισχυροί ρυθμιστές είναι απαραίτητοι
Αλλά η θέσπιση νέων νόμων δεν αρκεί – χρειαζόμαστε ισχυρές ρυθμιστικές αρχές για την επιβολή αυτών των νόμων. Η CHOICE ζητά έναν καλά χρηματοδοτούμενο Επίτροπο AI με μια σειρά ρυθμιστικών εξουσιών, συμπεριλαμβανομένων των εξουσιών αστικών και ποινικών κυρώσεων.
Ένας Επίτροπος τεχνητής νοημοσύνης θα πρέπει να αξιοποιήσει την εξειδικευμένη τεχνογνωσία του σε συνεργασία με υπάρχοντες αρμόδιους ρυθμιστικούς φορείς για την επίβλεψη τομέων της οικονομίας που επηρεάζονται από την τεχνητή νοημοσύνη, όπως τα δικαιώματα των καταναλωτών, ο ανταγωνισμός, η ιδιωτικότητα και ο άνθρωπος δικαιώματα.
Η μεγάλη τεχνολογία θέλει να αυτορυθμιστεί, αλλά η ιστορία αποδεικνύει ότι αυτές οι επιχειρήσεις δεν μπορούν να εμπιστευτούν για να γράψουν τους δικούς τους κανόνες
Η μεγάλη τεχνολογία θέλει να αυτορυθμιστεί, αλλά η ιστορία αποδεικνύει ότι αυτές οι επιχειρήσεις δεν μπορούν να εμπιστευτούν τη σύνταξη των δικών τους κανόνων. Η Αυστραλία θα πρέπει να ακολουθήσει το παράδειγμα της Ευρωπαϊκής Ένωσης και του Καναδά και να θέσει τα θεμέλια για μια δίκαιη αγορά όπου οι επιχειρήσεις πρέπει εγγυηθείτε ασφαλή, δίκαια, διαφανή, αξιόπιστα και υπεύθυνα συστήματα τεχνητής νοημοσύνης πριν από την κυκλοφορία τους.
Αυτό όχι μόνο θα προστάτευε την κοινότητά μας από το κακό, αλλά θα ενθάρρυνε επίσης καινοτομία και προώθηση της υπεύθυνης χρήσης AI.
Μπορείτε να διαβάσετε την πλήρη κατάθεσή μας προς την κυβέρνηση εδώ.
στοκ εικόνες: Getty, εκτός αν αναφέρεται διαφορετικά.
Για να μοιραστείτε τις σκέψεις σας ή να κάνετε μια ερώτηση, επισκεφτείτε το φόρουμ της κοινότητας CHOICE.
Εμείς στην CHOICE αναγνωρίζουμε τον λαό Gadigal, τους παραδοσιακούς θεματοφύλακες αυτής της γης στην οποία εργαζόμαστε, και αποδίδουμε τα σέβη μας στους ανθρώπους των Πρώτων Εθνών αυτής της χώρας. Η CHOICE υποστηρίζει τη δήλωση Uluru από την καρδιά και τη φωνή των πρώτων εθνών στο Κοινοβούλιο.