Κόσμος

Ανησυχία στους τεχνολογικούς γίγαντες> Η Ομοσπονδιακή Επιτροπή Εμπορίου ερευνά την OpenAI και την Τεχνητή Νοημοσύνη

ΗΟμοσπονδιακή Επιτροπή Εμπορίου των ΗΠΑ (F.T.C.) ξεκίνησε έρευνα για την OpenAI, την start-up τεχνητής νοημοσύνης που δημιούργησε το ChatGPT, σχετικά με το εάν το chatbot έχει βλάψει τους καταναλωτές μέσω της συλλογής δεδομένων και της δημοσίευσης ψευδών πληροφοριών.

Από τους Cecilia Kang και Cade Metz/New York Times

Σε μια επιστολή 20 σελίδων που εστάλη στην εταιρεία του Σαν Φρανσίσκο αυτή την εβδομάδα, η υπηρεσία ανέφερε ότι εξετάζει επίσης τις πρακτικές ασφαλείας της OpenAI. Η F.T.C. έθεσε στην OpenAI δεκάδες ερωτήσεις στην επιστολή του, συμπεριλαμβανομένου του τρόπου με τον οποίο η start-up εκπαιδεύει την Τεχνητή Νοημοσύνη της, μοντελοποιεί και επεξεργάζεται προσωπικά δεδομένα και ανέφερε ότι η εταιρεία θα πρέπει να παράσχει στον οργανισμό έγγραφα και λεπτομέρειες.

Η F.T.C. εξετάζει εάν η OpenAI «εμπλέκεται σε αθέμιτες ή παραπλανητικές πρακτικές απορρήτου ή ασφάλειας δεδομένων που σχετίζονται με κινδύνους βλαβών στους καταναλωτές», αναφέρεται συγκεκριμένα στην επιστολή.

Η διεξαγωγή της έρευνας αναφέρθηκε νωρίτερα από την Washington Post και επιβεβαιώθηκε από άτομο που γνωρίζει την υπόθεση.

Η έρευνα της F.T.C. είναι η πρώτη στις ΗΠΑ ρυθμιστική απειλή για την OpenAI, μία από τις πιο υψηλού προφίλ εταιρείες Τεχνητής Νοημοσύνης στην Αμερική και σηματοδοτεί ότι η τεχνολογία μπορεί να τίθεται όλο και περισσότερο υπό έλεγχο, καθώς οι άνθρωποι, οι επιχειρήσεις και οι κυβερνήσεις χρησιμοποιούν περισσότερα προϊόντα που λειτουργούν με Τεχνητή Νοημοσύνη. Η ταχέως εξελισσόμενη τεχνολογία έχει σημάνει διάφορους συναγερμούς καθώς τα chatbots, τα οποία μπορούν να παράγουν κάθε είδους απαντήσεις έπειτα από προτροπές, έχουν τη δυνατότητα να αντικαταστήσουν τους ανθρώπους στις δουλειές τους και να διαδώσουν παραπληροφόρηση.

Ο Sam Altman, ο οποίος ηγείται της OpenAI, ανέφερε ότι η ταχέως αναπτυσσόμενη βιομηχανία A.I. πρέπει να ρυθμιστεί. Τον Μάιο, κατέθεσε στο Κογκρέσο σχετικά με την νομοθεσία που αφορά την Τεχνητή Νοημοσύνη και έχει επισκεφθεί εκατοντάδες νομοθέτες, με στόχο να καθορίσει μια πολιτική ατζέντα για το συγκεκριμένο τομέα τεχνολογίας.

Την Πέμπτη, έγραψε στο Twitter ότι είναι «υπερ σημαντικό» η τεχνολογία της OpenAI να παραμείνει ασφαλής. Πρόσθεσε, «Είμαστε σίγουροι ότι ακολουθούμε το νόμο» και θα συνεργαστούμε με την υπηρεσία.

Sam Altman

Η OpenAI έχει ήδη δεχτεί ρυθμιστικές πιέσεις διεθνώς. Τον Μάρτιο, η αρχή προστασίας δεδομένων της Ιταλίας απαγόρευσε το ChatGPT, υποστηρίζοντας ότι η OpenAI συνέλεγε παράνομα προσωπικά δεδομένα από χρήστες και ότι δεν διέθετε σύστημα επαλήθευσης όσον αφορά την ηλικία προκειμένου να αποτραπεί η έκθεση των ανηλίκων σε παράνομο υλικό. Η OpenAI αποκατέστησε την πρόσβαση στο σύστημα τον επόμενο μήνα, λέγοντας ότι είχε κάνει τις αλλαγές που ζήτησε η ιταλική αρχή.

Η F.T.C. ενεργεί σχετικά με την Τεχνητή Νοημοσύνη με αξιοσημείωτη ταχύτητα, ανοίγοντας μια έρευνα λιγότερο από ένα χρόνο αφότου η OpenAI παρουσίασε το ChatGPT. Η πρόεδρος της υπηρεσίας, Lina Khan, τόνισε ότι οι εταιρείες τεχνολογίας θα πρέπει να υπόκεινται σε κανονιστικές ρυθμίσεις όσο οι τεχνολογίες είναι εκκολαπτόμενες, και όχι αφού ωριμάσουν.

Στο παρελθόν, η υπηρεσία ξεκινούσε συνήθως έρευνες μετά από ένα σημαντικό ατόπημα μίας εταιρεία, όπως η έναρξη έρευνας για τις πρακτικές απορρήτου της Meta μετά από αναφορές ότι μοιράστηκε δεδομένα χρηστών με μια εταιρεία πολιτικών συμβούλων, την Cambridge Analytica, το 2018. Η Khan, η οποία παρέστη σε μια ακρόαση της επιτροπής της αμερικανικής Βουλής την Πέμπτη σχετικά με τις πρακτικές του οργανισμού, είπε ότι η βιομηχανία Τεχνητής Νοημοσύνης χρειάζεται έλεγχο.

«Αν και αυτά τα εργαλεία είναι νέα, δεν εξαιρούνται από τους υπάρχοντες κανόνες και η F.T.C. θα επιβάλει σθεναρά τους νόμους που είμαστε επιφορτισμένοι να διαχειριζόμαστε, ακόμη και σε αυτή τη νέα αγορά», ανέφερε σε άρθρο της στους The New York Times τον Μάιο. «Ενώ η τεχνολογία κινείται γρήγορα, μπορούμε ήδη να δούμε αρκετούς κινδύνους».

Την Πέμπτη, στην ακρόαση της Επιτροπής Δικαιοσύνης της Βουλής, η Khan είπε: «Το ChatGPT και μερικές από αυτές τις υπόλοιπες υπηρεσίες τροφοδοτούνται με ένα τεράστιο θησαυρό δεδομένων. Δεν υπάρχουν έλεγχοι για το είδος των δεδομένων που εισάγονται». Πρόσθεσε ότι υπήρξαν αναφορές για «ευαίσθητες πληροφορίες» ανθρώπων που έχουν εμφανιστεί.

Lina Khan

Η έρευνα θα μπορούσε να αναγκάσει την OpenAI να αποκαλύψει τις μεθόδους της σχετικά με τη δημιουργία του ChatGPT και με το ποιες πηγές δεδομένων χρησιμοποιεί για να δημιουργήσει τα συστήματα Τεχνητής Νοημοσύνης της. Ενώ η OpenAI ήταν από καιρό αρκετά ανοιχτή σχετικά με τέτοιες πληροφορίες, πιο πρόσφατα έχει πει ελάχιστα για το ποια είναι η πηγή των δεδομένων της και πόσος όγκος από αυτά χρησιμοποιούνται, πιθανώς επειδή είναι επιφυλακτική ως προς τις αντιγραφές των ανταγωνιστών της και επειδή ανησυχεί για μηνύσεις σχετικά με τη χρήση ορισμένων δεδομένων.

Τα chatbot, τα οποία αναπτύσσονται επίσης από εταιρείες όπως η Google και η Microsoft, αντιπροσωπεύουν μια σημαντική αλλαγή στον τρόπο κατασκευής και χρήσης του λογισμικού υπολογιστών. Ουσιαστικά είναι έτοιμα να επανεφεύρουν τις μηχανές αναζήτησης στο Διαδίκτυο όπως το Google Search και το Bing, τους ομιλούντες ψηφιακούς βοηθούς όπως η Alexa και η Siri και υπηρεσίες email όπως το Gmail και το Outlook.

Όταν η OpenAI κυκλοφόρησε το ChatGPT τον Νοέμβριο, αιχμαλώτισε αμέσως τη φαντασία του κοινού με την ικανότητά του να απαντά σε ερωτήσεις, να γράφει ποίηση και ρίμες για σχεδόν οποιοδήποτε θέμα. Αλλά η τεχνολογία μπορεί επίσης να συνδυάσει γεγονότα με φαντασία και ακόμη και να δημιουργήσει πληροφορίες, ένα φαινόμενο που οι επιστήμονες αποκαλούν «ψευδαίσθηση».

Το ChatGPT καθοδηγείται από αυτό που οι ερευνητές Τεχνητής Νοημοσύνης αποκαλούν νευρωνικό δίκτυο. Αυτή είναι η ίδια τεχνολογία που μεταφράζεται μεταξύ γαλλικών και αγγλικών σε υπηρεσίες όπως το Google Translate και προσδιορίζει τους πεζούς σε αυτοοδηγούμενα αυτοκίνητα τα οποία κινούνται στους δρόμους της πόλης. Ένα νευρωνικό δίκτυο μαθαίνει δεξιότητες αναλύοντας δεδομένα. Εντοπίζοντας μοτίβα σε χιλιάδες φωτογραφίες γάτας, για παράδειγμα, μπορεί να μάθει να αναγνωρίζει μια γάτα.

Ερευνητές σε εργαστήρια όπως της OpenAI έχουν σχεδιάσει νευρωνικά δίκτυα που αναλύουν τεράστιες ποσότητες ψηφιακού κειμένου, συμπεριλαμβανομένων άρθρων της Wikipedia, βιβλίων, ειδήσεων και διαδικτυακών αρχείων καταγραφής συνομιλιών. Αυτά τα συστήματα, γνωστά ως μεγάλα γλωσσικά μοντέλα, έχουν μάθει να δημιουργούν κείμενο από μόνα τους, αλλά μπορεί να επαναλαμβάνουν λανθασμένες πληροφορίες ή να συνδυάζουν γεγονότα με τρόπους που παράγουν ανακριβείς πληροφορίες.

Τον Μάρτιο, το Κέντρο για την τεχνητή νοημοσύνη και την ψηφιακή πολιτική των ΗΠΑ, δεχόμενο πιέσεις από μια ομάδα υπεράσπισης για την ηθική χρήση της τεχνολογίας, ζήτησε από την F.T.C. να εμποδίσει την OpenAI να κυκλοφορήσει νέες εμπορικές εκδόσεις του ChatGPT, επικαλούμενο ανησυχίες που αφορούν μεροληψία, παραπληροφόρηση και ασφάλεια. Ο οργανισμός ανανέωσε την καταγγελία πριν από λιγότερο από μια εβδομάδα, περιγράφοντας πρόσθετους τρόπους με τους οποίους το chatbot θα μπορούσε να βλάψει, κάτι που όπως είπε έχει κάνει και η OpenAI.

«Η ίδια η εταιρεία έχει αναγνωρίσει τους κινδύνους που συνδέονται με την κυκλοφορία του προϊόντος και ζήτησε ρύθμιση», δήλωσε ο Marc Rotenberg, πρόεδρος και ιδρυτής του Κέντρου AI και Ψηφιακής Πολιτικής. «Η Ομοσπονδιακή Επιτροπή Εμπορίου πρέπει να δράσει».

Η OpenAI εργάζεται για να βελτιώσει το ChatGPT και να μειώσει τη συχνότητα μεροληπτικού, ψευδούς ή άλλου επιβλαβούς υλικού. Lina Khan,Καθώς οι υπάλληλοι και άλλοι ελεγκτές χρησιμοποιούν το σύστημα, η εταιρεία τους ζητά να αξιολογήσουν τη χρησιμότητα και την αλήθεια των απαντήσεών του. Στη συνέχεια, μέσω μιας τεχνικής που ονομάζεται ενισχυτική μάθηση, χρησιμοποιεί αυτές τις αξιολογήσεις για να καθορίσει πιο προσεκτικά τι θα κάνει και τι δεν θα κάνει το chatbot.

Η έρευνα της F.T.C. για την OpenAI μπορεί να διαρκέσει πολλούς μήνες και δεν είναι σαφές εάν θα οδηγήσει σε οποιαδήποτε ενέργεια από την υπηρεσία. Τέτοιες έρευνες είναι ιδιωτικές και συχνά περιλαμβάνουν καταθέσεις κορυφαίων εταιρικών στελεχών.

Ο οργανισμός μπορεί να μην έχει τις γνώσεις για να ελέγξει πλήρως τις απαντήσεις από την OpenAI, δήλωσε η Megan Gray, πρώην μέλος του προσωπικού του γραφείου προστασίας των καταναλωτών. «Η F.T.C. δεν έχει το προσωπικό με την τεχνική πείρα για να αξιολογήσει τις απαντήσεις που θα λάβει και να δει πώς η OpenAI μπορεί να προσπαθήσει να σκιάσει την αλήθεια», είπε.

πηγη

loading...

Related Articles

Αφήστε μια απάντηση

Η ηλ. διεύθυνση σας δεν δημοσιεύεται. Τα υποχρεωτικά πεδία σημειώνονται με *

Back to top button

Εντοπίστηκε Adblock

Φαίνεται ότι χρησιμοποιήστε πρόγραμμα ή επέκταση αποκλεισμού διαφημίσεων Υποστήριξε το kontasas.gr Οι διαφημίσεις επιτρέπουν τη λειτουργία του kontasas.gr Παρακαλούμε απενεργοποιήστε το Adblock