ΑΘΗΝΑ
12:52
|
06.05.2024
Η εφαρμογή «Λεβάντα» του Ισραήλ και οι απολύσεις στην Google. Συνδέονται;
Σκοτώνοντας με ΤΝ
Το μοιράζομαι:
Το εκτυπώνω

Πριν λίγες μέρες μάθαμε ότι ότι το Ισραήλ χρησιμοποιεί μια εφαρμογή Τεχνητής Νοημοσύνης (ΤΝ), ονόματι «Λεβάντα» για να ταυτοποιεί στόχους στη Γάζα. Και ακόμα πιο πρόσφατα, ότι η Google απόλυσε 28 εργαζόμενούς της που διαμαρτύρονταν για τα συμβόλαια της εταιρείας με το Ισραήλ. Ποια είναι η σύνδεση των δύο αυτών γεγονότων;

Αν και η πάντα ενήμερη για τα της τεχνολογίας αναγνώστρια του «Κοσμοδρομίου» έχει ήδη διαβάσει το σχετικό (φλύαρο και κουραστικό) πρόσφατο άρθρο, θα εξετάσουμε εδώ εν συντομία τα απαραίτητα στοιχεία που εξηγούν τη σύνδεση αυτών των γεγονότων. Γρήγορο σπόιλερ: η ΤΝ μπορεί να μην είναι ούτε νοημοσύνη, ούτε τόσο επαναστατική, όσο η ίδια ισχυρίζεται, αλλά σίγουρα μπορεί πολύ καλά να κάνει μερικές κρίσιμες βρωμοδουλειές αυξάνοντας την παραγωγικότητα του κεφαλαίου.

Η ΤΝ δεν τα πάει και πολύ καλά…

Μετά από δύο ή τρία χρόνια ενθουσιώδους προμοταρίσματος και δημιουργίας ντόρου, η έλλειψη πραγματικά μεγάλων αποτελεσμάτων έχει ως συνέπεια μια κάποια δυσπιστία να έχει αρχίσει να εμφανίζεται στον αμερικανικό οικονομικό τύπο για την ικανότητα της ΤΝ να επιτύχει τις μεγάλες υποσχέσεις της. Έτσι, από τις θριαμβολογίες ότι η ΤΝ θα αλλάξει τη ζωή μας, ότι θα φέρει πλούτο, ότι τέτοια θα είναι η αύξηση της παραγωγικότητας, που μέχρι και τον πληθωρισμό θα μειώσει, φτάσαμε στην πιο ψύχραιμη άποψη του Forbes ότι η OpenAI (η πιο γνωστή εταιρεία του χώρου) δεν πάει μεν για φούντο, έχει όμως ένα σοβαρό πρόβλημα με το τι ακριβώς πουλάει και σε ποιον (και άρα πιθανώς να πηγαίνει και για φούντο). Οι μελέτες βρίσκουν μεν ότι έχει επιτευχθεί τεράστια πρόοδος (αν και αυτή φαίνεται να φτάνει σε κάποια όρια), αλλά τα κόστη φουσκώνουν πολύ πιο γρήγορα. Ο ειδικός τύπος εκφράζει τις ανησυχίες των επενδυτών μην χάσουν τα λεφτουδάκια τους, ενώ εξηγεί (πάντα ψύχραιμα) ότι τα τεράστια έξοδα των εταιρειών, δηλαδή τα δισ. που ρίχνονται σε εξοπλισμό και διαφήμιση, είναι τελικά πολύ δυσανάλογα προς τα πιθανά κέρδη. Μια αναζήτηση με τη βοήθεια ενός από τα εργαλεία ΤΝ κοστίζει σε ρεύμα και κόστη υποδομής πάνω από χίλιες φορές όσο κοστίζει μια απλή αναζήτηση: είναι τέτοια η διαφορά, που το μοντέλο κερδοφορίας από διαφημίσης που χρησιμοποιείται από τις παραδοσιακές μηχανές αναζήτησης δεν φαίνεται να μπορεί να αποδώσει στην περίπτωση της ΤΝ.

Δεν είναι περίεργο λοιπόν που κανένας δεν έχει καταφέρει ακόμα να βγάλει λεφτά από την ΤΝ, παρά τα δισ. που έχουν συρρεύσει σε επενδύσεις τόσο από μεγαθήρια του χώρου (όπως η Micorsoft, η Google και το Facebook) όσο όμως και από μεγιστάνες των κρυπτονομισμάτωνμ που βλέπουν σταδιακά το τέλος αυτής της μεγάλης απάτης να έρχεται και ψάχνουν αλλού για κορόιδα: ο χώρος της ΤΝ και ο χώρος των κρύπτο έχουν γίνει συγκοινωνούντα δοχεία. Ο ηγέτης της OpenAΙ, ο διάδοχος του Ίλον Μασκ στον ρόλο του πιο μεγάλου σαμάνου-μπαλαφούσκα του καπιταλισμού, ο Σαμ Άλτμαν, έχει το δικό του σχέδιο για κρυπτονόμισμα. Το Worldcoin θα μπορείτε να το χρησιμοποιείτε σκανάροντας απλώς την ίριδα του ματιού σας (και προσφέροντας τα σχετικά προσωπικά σας δεδομένα στον Άλτμαν). Υπάρχουν ταινίες επιστημονικής φαντασίας και φρίκης που ξεκινούν πολύ πιο σεμνά από τόσο.

Εν πάση περιπτώσει, αρκετές από τις υπερβολικές προσδοκίες που δημιουργήθηκαν γύρω από την ΤΝ δεν επαληθεύτηκαν και κάποιες από αυτές ούτε πρόκειται να επαληθευτούν ποτέ, κυρίως αυτές που έχουν να κάνουν με νοημοσύνη και αυτοσυνείδηση. Η ΤΝ είναι μια ιδιαίτερα περίπλοκη και υπό προϋποθέσεις όντως πολύ αποτελεσματική στατιστική τεχνική. Αν την τροφοδοτήσετε με πολλά, πάρα πολλά δεδομένα, τότε μπορεί να τα χωρίσει σε κλάσεις ισοδυναμίας, σε κατηγορίες δηλαδή με βάση ιδιότητες, κάτι το πολύ χρήσιμο και συχνά τόσο δύσκολο να γίνει από ανθρώπους, που ως τώρα το έκαναν πολύ ειδικευμένοι εργαζόμενοι. Για παράδειγμα, σε ένα νομικό σύστημα που βασίζεται στο δεδικασμένο (όπως των ΗΠΑ), ποιοι νόμοι και ποιες δικαστικές αποφάσεις σχετίζονται με μια υπόθεση; Αυτό είναι μια δύσκολη και βαρετή δουλειά που αφήνεται σε νεαρούς δικηγόρους, οι οποίοι ψάχνουν σε ατέλειωτες δικογραφίες. Η ΤΝ μπορεί προοπτικά να λύσει το ίδιο πρόβλημα: την «ταΐζετε» με το σύνολο της δικογραφίας και αυτή (θα) είναι σε θέση να σας απαντήσει σε δευτερόλεπτα. Άλλο πρόβλημα: Πώς να βαθμολογηθούν γραπτά φοιτητών; Η κοπιώδης αυτή εργασία μέχρι τώρα αφήνεται στους καθηγητές, αλλά η ΤΝ μπορεί να το κάνει άκοπα. Και αντιστρόφως: πώς γράψετε το δοκίμιο που σας ζήτησε ο καθηγητής σας; Απάντηση: δίνετε το θέμα στο ChatGPT και έχετε έτοιμο ένα υπέροχα βαρετό δοκίμιο γεμάτο ταυτολογίες που μετά θα βαθμολογηθεί από το ChatGPT. Με άλλα λόγια, η ΤΝ είναι ένας ακόμα αυτοματισμός που αντικαθιστά ανθρώπινη εργασία με έργο παραγόμενο από μηχανές. Είναι ακριβώς η ίδια αντικατάσταση εργασίας που έκανε και κάθε προηγούμενη εισαγωγή μηχανών στην παραγωγή, αν και αυξημένης περιπλοκότητας σε σχέση με τις προηγούμενες.

Βέβαια, όντας μια στατιστική διαδικασία, έχει το πρόβλημα ότι και τα αποτελέσματα που παρουσιάζει είναι στατιστικά: αν κάνετε τη «σωστή» ερώτηση, η απάντηση θα είναι με μεγάλη πιθανότητα η «σωστή» και αναμενόμενη – αλλά καμιά φορά θα είναι εντελώς λάθος. Αυτό είναι ένα κρίσιμο σημείο. Αν έχετε ένα πρόβλημα που δεν μπορεί να δεχτεί καθόλου λανθασμένες απαντήσεις, η ΤΝ μπορεί να προκαλέσει προβλήματα. Για παράδειγμα, ένας δικηγόρος στις ΗΠΑ χρησιμοποίησε ήδη το ChatGPT για να βρει δικογραφίες, όπως περιγράψαμε πιο πριν. Βρήκε έτσι έξι υποθέσεις που «ταίριαζαν». Όταν ο δικαστής τις έψαξε, διαπίστωσε ότι οι υποθέσεις αυτές ήταν ανύπαρκτες, ήταν κατασκεύασμα της μηχανής. Προφανώς δεν μπορείτε να έχετε ανύπαρκτα, κατασκευασμένα στοιχεία σε μια υπερασπιστική γραμμή, γιατί θα χάσετε τη δίκη. Ομοίως, δεν μπορείτε λχ να χρησιμοποιήσετε φανταστικές διαγνώσεις που πιθανόν να κάνει μια ιατρική ΤΝ. Ή, αν είστε αυτοκινητοβιομηχανία, δεν μπορείτε να πουλήσετε πλήρως αυτοοδηγούμενα οχήματα με χρήση ΤΝ, γιατί τα λάθη και τα ατυχήματα που θα προκαλέσουν θα βαρύνουν εσάς (και όχι, όπως στα κανονικά αυτοκίνητα, τον οδηγό του οχήματος) με τεράστια δικαστικά έξοδα.

Αλλά ευτυχώς, υπάρχουν χώροι όπου μπορείτε να δεχτείτε κανα δυο λαθάκια. Μπορείτε λ.χ. με τη βοήθεια ΤΝ να σκοτώνετε όσους ανθρώπους θέλετε χωρίς κανένα πρόβλημα. Τίποτε δεν σταματά την πρόοδο!

Η ΤΝ που σκοτώνει

Ο ισραηλινός στρατός είναι ίσως ο πιο τεχνολογικά προηγμένος στρατός του κόσμου, αλλά και ένας πολύ ηθικός στρατός. Γιατί, όπως δηλώνουν οι ίδιοι οι εκπρόσωποί του, «ως στράτευμα που δεσμεύεται από τον διεθνή νόμο και έναν ηθικό κώδικα συμπεριφοράς, αφιερώνουμε τεράστιους πόρους προκειμένου να ελαχιστοποιήσουμε τη βλάβη που προκαλούμε σε πολίτες, οι οποίοι χρησιμοποιούνται ως ανθρώπινες ασπίδες από την Χαμάς. Πολεμάμε την Χαμάς, όχι τους άμαχους της Γάζας».

Πριν η αναγνώστρια χαμογελάσει πικρά, να της υπενθυμίσουμε ότι γενικά στους στρατούς και ειδικά στον ισραηλινό στρατό επιτρέπονται (πιο σωστά, επιβάλλονται) τα ψεύδη. Αλλά επίσης, ακόμα και αυτά τα ψεύδη σταμάτησαν στις 8 Οκτωβρίου. Γιατί οι ανάγκες του πολέμου και η «απίστευτη, χωρίς προηγούμενο» αγριότητα του χτυπήματος της Χαμάς μείωσαν τα στάνταρντ, επιτρέποντας πλέον, ως φαίνεται, μια χωρίς προηγούμενο απάντηση. Η πραγματικότητα εμφανίστηκε σε όλη την τερατώδη γύμνια της: ο στρατός δεν πολεμάει την Χαμάς, αλλά τους άμαχους της Γάζας.

Όπως ξέρουμε από το εκτενέστατο ρεπορτάζ της ισραηλινής ιστοσελίδας +972 το υπουργείο Άμυνας ανέπτυξε την ΤΝ «Λεβάντα» για την ταυτοποίηση στόχων στην Γάζα. Το πρόγραμμα λειτουργεί ως εξής: Το σύστημα «μαθαίνει» από τα δεδομένα ήδη γνωστών μαχητών της Χαμάς που έχουν ταυτοποιηθεί, συλληφθεί κλπ. Εκτός από τα τυπικά προσωπικά δεδομένα (ονόματα, διευθύνσεις, αριθμοί τηλεφώνου κλπ.), σε αυτά περιλαμβάνονται και συνήθειες, συχνότητα αλλαγής τηλεφώνου (οι παράνομοι χρησιμοποιούν πολλά τηλέφωνα και ψευδώνυμα), ειδικές συμπεριφορές (αλλαγή κατοικίας, ώρες που κυκλοφορεί), όπως και δίκτυο γνωριμιών και κοινωνικά μέσα (μια εξαιρετική πηγή δεδομένων).

Κατόπιν η «Λεβάντα» χρησιμοποιεί το τεράστιο κύκλωμα παρακολούθησης της Γάζας με κάμερες και ηλεκτρονικά μέσα, ώστε να εξαγάγει δεδομένα σε πραγματικό χρόνο για πρακτικά όλους τους κατοίκους της, έναν προς έναν: πού μένουν, κάθε πότε βγαίνουν από το σπίτι, πού πάνε, τι τρώνε. Αυτά τα συνδυάζει μέσω της αναγνώρισης προσώπου με τα αποθηκευμένα δεδομένα (αριθμό τηλεφώνου, τα άβαταρ σε κοινωνικά δίκτυα). Η ΤΝ μπορεί από αυτά να κατατάσσει κάθε κάτοικο σε κατηγορίες σχέσεις με την Χαμάς, αποδίδοντας σε ένα σκορ από το 1 ως το 100. Το 1 σημαίνει «αθώος», το 100 σημαίνει βεβαιότητα ότι πρόκειται για στέλεχος της Χαμάς. Η μηχανή δηλαδή φτιάχνει μια λίστα στόχων για εξολόθρευση, μια kill list, όπως διεθνώς λέγονται αυτοί οι κατάλογοι θεσμικής τρομοκράτησης πληθυσμών.

Το ρεπορτάζ αναφέρει ότι μέχρι πρόσφατα ο στρατός έβαζε ανθρώπους να τσεκάρουν την ακρίβεια των δεδομένων. Ισχυρίζεται δε ότι η ακρίβεια του συστήματος ήταν της τάξης του 90%, δηλαδή ότι 9 στους 10 στόχους που έδινε η «Λεβάντα» ήταν όντως μαχητές της Χαμάς και μόνο μια φορά στις δέκα έκανε λάθος. Το λάθος μπορεί να οφειλόταν λ.χ. στο ότι ένας πατέρας έδινε το τηλέφωνό του στο γιό του, ή επειδή κάποιος μετακόμιζε συχνά ή ήταν συγγενής με ένα στέλεχος της Χαμάς ή άλλους τυχαίους παράγοντες.

Προφανώς, τον ισχυρισμό περί 90% ακρίβειας δεν υπάρχει τρόπος να τον επαληθεύσουμε, αλλά θα πρέπει να είμαστε ιδιαίτερα επιφυλακτικοί. Γενικά, ένα νευρωνικό δίκτυο μπορεί να έχει ποσοστά επιτυχίας πολύ μεγαλύτερα από 90%, αν και αυτό συμβαίνει σε ελεγχόμενα σύνολα δεδομένων. Μια κοινωνία όπως της Γάζας είναι ένα όχι μόνο περίπλοκο, αλλά και εξελισσόμενο, δυναμικό σύστημα. Η Χαμάς έχει ευρύτατες και διαφόρων βαθμών σχέσεις με τον εν γένει πληθυσμό. Ακούγεται πολύ δύσκολο η «επιτυχία» του συστήματος να είναι τόσο υψηλή υπ’ αυτές τις συνθήκες.

Ένα άλλο ζήτημα, πέρα από την ταυτοποίηση των στόχων, είναι ο τρόπος που αυτοί πλήττονται. Ο ισραηλινός στρατός λέει ότι απέφευγε να χτυπήσει τα χαμηλόβαθμα στελέχη, προκειμένου να αποφύγει «παράπλευρες απώλειες», οι οποίες ήταν αποδεκτές μόνο για τα υψηλόβαθμα στελέχη. Τέλος, συνεχίζει η κυρίαρχη αφήγηση περί «ηθικής του πολέμου», όταν γινόταν η ταυτοποίηση του στόχου, η τεχνολογία ήταν πάντα από τη σωστή πλευρά της ιστορίας: χρησιμοποιώντας «έξυπνα» όπλα, όπως λ.χ. «βόμβες ενός πατώματος» (οι οποιες δεν καταστρέφουν ολόκληρο κτίριο, αλλά μόνο σκοτώνουν όσους βρίσκονται σε έναν όροφο), έκαναν «χειρουργικά» χτυπήματα.

Η πραγματικότητα βέβαια, όπως πάντα, μάς δείχνει την άσχημη φάτσα της στις στιγμές κρίσης. Όσο τα πράγματα ήταν ήσυχα και αρκούσαν μόνο μερικά σποραδικά χτυπήματα, φυσικά και υπήρχε έλεγχος και διπλοτσεκάρισμα των στόχων, χρήση ακριβών πλην έξυπνων όπλων, αποφυγή χτυπήματος χαμηλόβαθμων στελεχών κλπ. Η στιγμή της κρίσης ήταν μετά την 7η Οκτωβρίου. Πάνω από 30.000 στόχοι ταυτοποιημένοι από την «Λεβάντα» χτυπήθηκαν. Μοναδικός έλεγχος που γινόταν ήταν το φύλο του στόχου (η Χαμάς δεν έχει γυναίκες μαχήτριες). Τα περισσότερα χτυπήματα έγιναν με φτηνές «χαζές» βόμβες που ισοπεδώνουν ολόκληρα τετράγωνα: ήταν θέμα εθνικής οικονομίας πλέον, οι έξυπνες βόμβες είναι και πολύ ακριβές και υπερβολικά στοχευμένες – αν ο στόχος βρίσκεται σε άλλον όροφο γλιτώνει. Και το κυριότερο: Για μέγιστη επιτυχία χρησιμοποιήθηκε το πρόγραμμα «Πού’ ναι ο μπαμπάς;», ένα πρόγραμμα παρακολούθησης και επιτήρησης που αποφαίνεται πότε ο στόχος είναι στο σπίτι του. Η απόλυτη πλειονότητα χτυπημάτων έγινε κατά τη διάρκεια της νύχτας, με αποτέλεσμα φυσικά τις περισσότερες φορές να μην χτυπιέται ο στόχος, αλλά η οικογένειά του και οι γείτονες, γυναικόπαιδα και γέροι την ώρα που κοιμούνται, όχι μαχητές της Χαμάς.

Το πιο ενδιαφέρον στοιχείο εδώ είναι η γραφειοκρατία της μεταβίβασης της ευθύνης για την φρίκη, η «κοινοτοπία του κακού», όπως την λέμε συνήθως. Η μηχανή είναι προγραμματισμένη να βρίσκει και να σκοτώνει Παλαιστίνιους. Ο αξιωματικός της βάρδιας, που είναι υποχρεωμένος από την ηγεσία να χτυπήσει στόχους, δεν χρειάζεται να πάρει αποφάσεις, να διαλέξει ποιος θα είναι ο επόμενος. Το πρόγραμμα διαλέγει τους στόχους που βρίσκονται σπίτι τους και περνάει τις συντεταγμένες στους πυραύλους πάνω στα αεροπλάνα που έχουν ήδη απογειωθεί. Οι πιλότοι πατάνε τη σκανδάλη από πολλά χιλιόμετρα μακριά, χωρίς να έχουν καν οπτική επαφή με τους στόχους. Όλα γίνονται αυτόματα, από μόνα τους. Δεν χρειάζεται κανένας έλεγχος, δεν υπάρχει λόγος για αμφιβολίες, δεν χρειάζονται αναμονές, είναι σαν να μην υπάρχουν άνθρωποι πουθενά σε αυτήν τη διαδικασία, είτε από την πλευρά που αποφασίζει, είτε από την πλευρά που πεθαίνει. Δεν πρόκειται για ανθρώπινους στόχους, είναι απλώς νούμερα σε μια οθόνη, κουμπιά που πατιούνται από χιλιόμετρα μακριά. Η ΤΝ ξαφνικά έχει αναλάβει την ευθύνη για τις δολοφονίες, στην πραγματικότητα τις διαπράττει κιόλας, οπότε ο στρατιώτης δεν χρειάζεται να ασχοληθεί με το ηθικό μέρος. Και δεν χρειάζεται να τον απασχολήσει ούτε το στατιστικό μέρος, τα λάθη που έκανε η μηχανή, οι παράπλευρες απώλειες, τα αθώα θύματα, οι οικογένειες που σκοτώθηκαν, τα κτίρια που ισοπεδώθηκαν. Ιστορικά, η δικαιολογία για την διάπραξη θηριωδιών ήταν «δεν φταίω εγώ, ακολουθούσα διαταγές»· στο Ισραήλ μετατρέπεται σε «εγώ δεν έκανα τίποτε, η ΤΝ τους διάλεξε και τους σκότωσε (και ορθώς, αφού είναι εγκληματίες)».

Η μηχανή κάνει λάθη, αλλά κάνει λιγότερα λάθη από άνθρωπο, ξέρει καλύτερα από τον άνθρωπο. Η μηχανή δίνει την διαταγή και την εκτελεί ταυτόχρονα, ο άνθρωπος εκτελεί ένα μικρό μόνο μέρος της αποστολής. Δεν υπάρχει χώρος για τύψεις, οι μηχανές δεν έχουν τύψεις.

Η ΤΝ ως Ιδεολογία

Αυτός είναι ο κύριος λόγος ύπαρξης της ΤΝ. Εκτός από αυτοματισμός που μελλοντικά θα αντικαταστήσει κάποιες εργασίες υψηλής ειδίκευσης, ήδη λειτουργεί ως ενισχυτικός μηχανισμός της κυρίαρχης ιδεολογίας. Η «Λεβάντα», με την απόκρυψη του ποιος έχει την ευθύνη για τις δολοφονίες αποτελεί ένα παράδειγμα, αν και ακραίο, αυτής της λειτουργίας. Ένα άλλο παράδειγμα είναι ο τρόπος με τον οποίο τα chatbot ΤΝ, όπως το ChatGPT, αρνούνται να δώσουν «αμφιλεγόμενα» αποτελέσματα: είναι πάντα προγραμματισμένα να καλύπτουν μόνο ή κυρίως την κυρίαρχη άποψη για τα πράγματα, όπως αυτή καθορίζεται από τις πολυεθνικές που τα παρέχουν και γενικότερα τους μηχανισμούς στους οποίους αυτές συμμετέχουν ή συνεργάζονται με αυτούς, κυριότερος των οποίων είναι το κράτος.

Η ΤΝ ως Αυτοματοποίηση της Εξουσίας

Γιατί απολύθηκαν οι 28 εργαζόμενοι από την Google;

Οι 28 ήταν μέλη της πρωτοβουλίας «Όχι στο Απάρτχαϊντ» και διαμαρτυρήθηκαν επειδή η εταιρςία τους, μαζί με την Amazon, συμμετέχουν στο «σχέδιο Nimbus», ένα συμβόλαιο δισεκατομμυρίων για την παροχή υπηρεσιών νέφους μεγάλης κλίμακας στο κράτος του Ισραήλ. Προφανώς η ακριβής φύση των υπηρεσιών είναι μυστική, αλλά μέρος τους είναι και αμιγώς στρατιωτικοί σκοποί σαν την «Λεβάντα» ή άλλοι. Η πρωτοβουλία «Όχι στο Απάρτχαϊντ», συντόνισε μια ειρηνική καθιστική διαμαρτυρία έξω από τα γραφεία κάποιων μάνατζερ της Google, οι οποίοι φυσικά κάλεσαν την αστυνομία. Οι εργαζόμενοι απολύθηκαν, όχι με επιχειρήματα που έχουν να κάνουν με την ουσία του ζητήματος, αλλά επειδή «εμπόδισαν το δικαίωμα» των υπόλοιπων εργαζομένων να εργαστούν.

Η Google είναι, ως γνωστόν, παγκόσμιος ηγέτης στα δικαιώματα και την συμπεριληπτικότητα και έχει συχνά απολύσει χωρίς δεύτερη κουβέντα υπαλλήλους που υποκύπτουν σε διαχωριστικές, ρατσιστικές ή πατριαρχικές συμπεριφορές (και σωστά). Κατά παρόμοιο τρόπο και στην περίπτωση των 28, η εταιρεία υπερασπίστηκε δικαιώματα: το ιερό δικαίωμα στην εργασία. Μπορούμε να υποθέσουμε ότι επίσης υπερασπίζεται και το δικαίωμα των διαμαρτυρόμενων να απολυθούν, αλλά και το δικαίωμα των Παλαιστινίων να πεθάνουν.

Το σφίξιμο της ιδεολογικής βίδας με αφορμή πρώτα την πανδημία, μετά την Ουκρανία, και στη συνέχεια την Γάζα και το Ισραήλ συνεχίζεται με όλο και μεγαλύτερη ένταση, ειδικά στον ακαδημαϊκό χώρο, ίσως επειδή αυτός υποτίθεται ότι χαρακτηρίζεται από ελευθερία γνώμης και έκφρασης. Καθηγητές διώκονται ή απολύονται επειδή πήραν το μέρος των αμάχων, φιλολογικές εκδηλώσεις διαλύονται και πειθαρχικά σημειώματα μοιράζονται επειδή διαβάστηκε παλαιστινιακή ποίηση, στο πανεπιστήμιο Κολούμπια έγιναν 100 συλλήψεις φοιτητών για ειρηνική διαμαρτυρία για την Γάζα. Στην Γερμανία πάλι, υπάρχει απόλυτη ελευθερία λόγου, εκτός και αν μιλάμε για την Παλαιστίνη, όπως πρόσφατα έμαθε ο Βαρουφάκης, και όπως έγινε απολύτως καθαρό πλέον και σε όλες τις πολιτιστικές ενώσεις της χώρας: από εδώ και πέρα, κάθε κριτική στο κράτος του Ισραήλ θα τιμωρείται.

Μέχρι πρόσφατα, η «ελευθερία του λόγου» ήταν μια καραμέλα της άκρας δεξιάς κάθε φορά που ο έξαλλος φασιστικός λόγος απαγορευόταν. Είναι πλέον η σειρά όχι της άκρας αριστεράς μόνο, αλλά και της «κεντροαριστεράς» που θα ήθελε να κρατήσει κάποια προσχήματα, να δει τι σημαίνει λογοκρισία. Και σε αυτό το νέο πλαίσιο, μεγάλη ελπίδα του συστήματος, είναι ότι οι διάφορες εφαρμογές ΤΝ με την ικανότητα που τις διακρίνει να εξάγουν πληροφορία από κείμενο και λόγο, θα το βοηθήσουν στην αστραπιαία και αυτόματη πάταξη κάθε διαφωνίας. Η ΤΝ, που καλά καλά δεν έχει ακόμα βρει εφαρμογές στο εργοστάσιο, έχει ήδη εφαρμοστεί στο πεδίο άσκησης της εξουσίας.

Στην ιστορία του καπιταλισμού, κάθε αυτοματισμός, κάθε τεχνολογική πρόοδος είναι πρώτα και κύρια άσκηση διευθυντικού δικαιώματος και απαλλοτρίωση εργατικής γνώσης που αντικειμενοποιείται σε μηχάνημα. Αυτό που ίσως ξεχωρίζει τις τεχνικές ΤΝ είναι το γεγονός ότι απαλλοτριώνουν πλευρές γνώσης που αφορούν την (βιο)πολιτική, την ίδια την θέσμιση του αστικού κράτους, το προνόμιό του να αποφασίζει για τις ζωές μας. Ίσως όμως αυτό ακριβώς να είναι και η αχίλλειος πτέρνα του, το γεγονός ότι η ΤΝ μπορεί να αυτοματοποιεί με βάση ήδη υπαρκτή γνώση, να αντικειμενοποιεί την ζωντανή σε νεκρή εργασία και άρα δεν είναι σε θέση να δημιουργεί νέα γνώση. Νά ένας ακόμα λόγος να υποστηρίζει κανείς τον αγώνα των Παλαιστινίων: αποδεικνύουν ότι παρά τις προόδους της, η απρόσωπη εκμηχάνιση του κράτους εξακολουθεί να είναι πάντα ευάλωτη από την εφευρετικότητα των μαζών που μπορεί πάντα να δημιουργεί νέες μορφές αντίστασης κατά της καταπίεσης.

Το μοιράζομαι:
Το εκτυπώνω
ΣΥΝΑΦΗ

Ρωσία: Διεξαγωγή στρατιωτικών γυμνασίων με εξάσκηση στη χρήση τακτικών πυρηνικών όπλων

ΗΠΑ: Σχεδόν 2.500 συλλήψεις σε διαδηλώσεις υπέρ των Παλαιστινίων σε κολέγια και πανεπιστήμια

Εκλογές στο Τσαντ, οι πρώτες του Σαχέλ μετά το κύμα πραξικοπημάτων

Πώς θα κινηθούν σήμερα τα ΜΜΜ

Γραφτείτε συνδρομητές
Ενισχύστε την προσπάθεια του Κοσμοδρομίου με μια συνδρομή από €1/μήνα