ΑΘΗΝΑ
11:58
|
28.05.2024
Άρχισε τις διαρροές προσωπικών συνομιλιών το περιβόητο ChatGPT, με χρήστες να έχουν πρόσβαση σε αρχεία άλλων χρηστών της εφαρμογής.
Το μοιράζομαι:
Το εκτυπώνω

Ένα λειτουργικό σφάλμα στο πρόγραμμα ChatGPT επέτρεψε σε ορισμένους χρήστες να βλέπουν τους τίτλους των συνομιλιών άλλων χρηστών, δήλωσε ο επικεφαλής του chatbot τεχνητής νοημοσύνης. Έτσι, στους ιστότοπους κοινωνικής δικτύωσης Reddit και Twitter, οι χρήστες είχαν μοιραστεί εικόνες από ιστορικά συνομιλιών που έλεγαν ότι δεν ήταν δικές τους.

Ο Διευθύνων Σύμβουλος της OpenAI, Σαμ Άλτμαν, είπε ότι η εταιρεία αισθάνεται “απαίσια”, αλλά το “σημαντικό” σφάλμα είχε πλέον διορθωθεί.

Πολλοί χρήστες, ωστόσο, εξακολουθούν να ανησυχούν για το απόρρητο στην πλατφόρμα.

Εκατομμύρια άνθρωποι έχουν χρησιμοποιήσει το ChatGPT για τη σύνταξη μηνυμάτων, τη σύνταξη τραγουδιών, μέχρι και για σύνταξη κώδικα προγραμματισμού, από τότε που η εφαρμογή κυκλοφόρησε τον Νοέμβριο του περασμένου έτους. Κάθε συνομιλία με το chatbot αποθηκεύεται στη γραμμή ιστορικού συνομιλίας του χρήστη, όπου μπορεί να επανεξεταστεί αργότερα.

Αλλά ήδη από τη Δευτέρα, οι χρήστες άρχισαν να βλέπουν να εμφανίζονται στο ιστορικό τους συνομιλίες που έλεγαν ότι δεν είχαν κάνει με το chatbot. Ένας χρήστης στο Reddit μοιράστηκε μια φωτογραφία του ιστορικού των συνομιλιών του, συμπεριλαμβανομένων τίτλων όπως “Ανάπτυξη του Κινεζικού Σοσιαλισμού”, καθώς και συνομιλίες στα Μανδαρίνικα.

Την Τρίτη, η εταιρεία είπε στο Bloomberg ότι απενεργοποίησε για λίγο το chatbot αργά τη Δευτέρα ώστε να διορθώσει το σφάλμα. Ανέφερε, επίσης, ότι οι χρήστες δεν είχαν πρόσβαση στις πραγματικές συνομιλίες.

Ο διευθύνων σύμβουλος του OpenAI έγραψε στο Twitter ότι σύντομα θα υπάρξει “τεχνική νεκροψία”. Ωστόσο, το σφάλμα προκάλεσε ανησυχία στους χρήστες που φοβούνται ότι οι προσωπικές τους πληροφορίες θα μπορούσαν να διαρρεύσουν μέσω της εφαρμογής.

Το σφάλμα φαινόταν να υποδεικνύει ότι το OpenAI έχει πρόσβαση σε συνομιλίες χρηστών.

Από την άλλη, η πολιτική απορρήτου της εταιρείας υποστηρίζει ότι τα δεδομένα χρήστη, όπως προτροπές και απαντήσεις, μπορούν να χρησιμοποιηθούν για τη συνέχιση της εκπαίδευσης του μοντέλου. Αλλά αυτά τα δεδομένα χρησιμοποιούνται μόνο αφού αφαιρεθούν τα προσωπικά στοιχεία ταυτοποίησης.

Η γκάφα έρχεται επίσης μόλις μια ημέρα αφότου η Google παρουσίασε το chatbot Bard σε μια ομάδα δοκιμαστών beta και δημοσιογράφων.

Η Google και η Microsoft, ένας σημαντικός επενδυτής στο OpenAI, αγωνίζονται για τον έλεγχο της αναπτυσσόμενης αγοράς εργαλείων τεχνητής νοημοσύνης.

Αλλά ο ρυθμός των ενημερώσεων και των εκδόσεων νέων προϊόντων έχει πολλά ανησυχητικά λάθη όπως αυτά που θα μπορούσαν να είναι επιβλαβή ή να έχουν ακούσιες συνέπειες.

Το μοιράζομαι:
Το εκτυπώνω
ΣΥΝΑΦΗ

Τελικός Conference League: ΗΣΑΠ μόνο για οπαδούς

Μπαγκλαντές: Κυκλώνας με διάρκεια ρεκόρ άφησε πίσω του 15 νεκρούς

Ως εδώ!: Πορεία γειτονιάς στα Εξάρχεια την Παρασκευή 31 Μαΐου

Γερμανικές οφειλές από τις ναζιστικές θηριωδίες: Συνέδριο το Σάββατο 1 Ιουνίου στον Πειραιά

Γραφτείτε συνδρομητές
Ενισχύστε την προσπάθεια του Κοσμοδρομίου με μια συνδρομή από €1/μήνα