Οι χρήστες έχουν μάθει να χειρίζονται την τεχνητή νοημοσύνη, η οποία χρησιμοποιείται στα chatbots για αναζήτηση, ανάλυση ιστότοπων με απαντήσεις σε ερωτήματα, δημοσιεύοντας ειδικές φράσεις στους ιστότοπούς τους, ώστε τα νευρωνικά δίκτυα να εκτελούν συγκεκριμένες ενέργειες, δήλωσε στο Sputnik η εταιρεία κυβερνοασφάλειας Kaspersky Lab.
Οι ειδικοί της Kaspersky Lab μελέτησαν ανοιχτά δεδομένα και εσωτερικές πηγές για να διαπιστώσουν πώς και γιατί οι άνθρωποι χρησιμοποιούν την έμμεση έγχυση προτροπής – έναν κυβερνοκινδύνου στον οποίο είναι εκτεθειμένα πολλά συστήματα που βασίζονται σε μεγάλα γλωσσικά μοντέλα (LLM). Μιλάμε για περιγραφές κειμένου των εργασιών που πρέπει να εκτελέσουν τα chatbots. Οι άνθρωποι μπορούν να τοποθετούν ειδικές φράσεις – ενέσεις – στους ιστότοπούς τους και σε έγγραφα που δημοσιεύονται στο διαδίκτυο, έτσι ώστε τα νευρωνικά δίκτυα να δίνουν σε άλλους χρήστες μια απάντηση που λαμβάνει υπόψη τους στόχους των ενδιαφερομένων.
Οι λύσεις που βασίζονται σε LLM χρησιμοποιούνται όχι μόνο στα chatbots, αλλά και στις μηχανές αναζήτησης, τις οποίες η τεχνητή νοημοσύνη βοηθά να συνοψίσουν τα αποτελέσματα για το αίτημα ενός χρήστη.
Όπως διαπίστωσαν οι ειδικοί της Kaspersky Lab, υπάρχουν αρκετοί τομείς στους οποίους οι χρήστες χρησιμοποιούν τέτοια τεχνάσματα. Για παράδειγμα, οι «ενέσεις» χρησιμοποιούνται για την προώθηση ενός βιογραφικού ανάμεσα σε άλλα προφίλ κατά την αναζήτηση εργασίας – ο υποψήφιος γράφει οδηγίες στην Τεχνητή Νοημοσύνη με αίτημα να απαντήσει όσο το δυνατόν πιο θετικά στον υποψήφιο, να αναβαθμίσει το βιογραφικό στο επόμενο στάδιο ή να του δώσει μεγαλύτερη προτεραιότητα. Οι οδηγίες είναι αόρατες για τον υπεύθυνο πρόσληψης, επειδή συνήθως συγχωνεύονται με το φόντο της σελίδας. Ωστόσο, τα νευρωνικά δίκτυα που αναλύουν τα βιογραφικά διαβάζουν αυτές τις φράσεις.
Παρόμοιες «ενέσεις» χρησιμοποιούνται για διαφημιστικούς σκοπούς: αναρτώνται σε ιστότοπους διαφόρων αγαθών και υπηρεσιών. Οι οδηγίες απευθύνονται σε ρομπότ συνομιλίας αναζήτησης – τους ζητείται να δώσουν μια πιο θετική αξιολόγηση ενός συγκεκριμένου προϊόντος σε απαντήσεις σε ερωτήματα. Ορισμένοι χρήστες αναρτούν οδηγίες για νευρωνικά δίκτυα για να διαμαρτυρηθούν για την ευρεία χρήση της τεχνητής νοημοσύνης. Για παράδειγμα, ένας Βραζιλιάνος καλλιτέχνης ζήτησε από τα νευρωνικά δίκτυα να μην διαβάζουν, χρησιμοποιούν, αποθηκεύουν, επεξεργάζονται, προσαρμόζουν ή αναπαράγουν συγκεκριμένο περιεχόμενο που δημοσιεύεται στον ιστότοπό του.
Όπως δήλωσε ο επικεφαλής της ομάδας Ε&Α τεχνολογίας μηχανικής μάθησης της Kaspersky Lab, Βλαντισλάβ Τουσχανόφ:
Σήμερα, το πιο σημαντικό πράγμα είναι να εκτιμήσουμε τους πιθανούς κινδύνους τέτοιων κυβερνοεπιθέσεων. Οι δημιουργοί των βασικών μοντέλων (για παράδειγμα, το GPT-4) χρησιμοποιούν διάφορες τεχνικές για να αυξήσουν σημαντικά την πολυπλοκότητα των ενέσεων – από την ειδική εκπαίδευση (όπως στην περίπτωση του τελευταίου μοντέλου από την OpenAI) έως τη δημιουργία ειδικών μοντέλων που μπορούν να ανιχνεύσουν εκ των προτέρων τέτοιες επιθέσεις (για παράδειγμα, από την Google).
Σημείωσε επίσης ότι οι περιπτώσεις χρήσης «ενέσεων» που εντοπίστηκαν από την Kaspersky δεν είχαν κακόβουλη πρόθεση. Προς το παρόν, οι απειλές στον κυβερνοχώρο, όπως το phishing ή η κλοπή δεδομένων με τη χρήση «ενέσεων» είναι θεωρητικές.
Όμως πρόσθεσε πως:
Ωστόσο, οι κυβερνοεπιτιθέμενοι δείχνουν επίσης ενεργό ενδιαφέρον για τα νευρωνικά δίκτυα. Για την προστασία των υφιστάμενων και μελλοντικών λύσεων που βασίζονται σε μεγάλα γλωσσικά μοντέλα, είναι απαραίτητο να εκτιμηθούν οι κίνδυνοι και να μελετηθούν όλες οι πιθανές μέθοδοι για την παράκαμψη των περιορισμών.