Επειδή οι άνθρωποι, ως ατελή όντα, έχουμε εμμονές, αδυναμίες, πάθη και νευρώσεις, περιορισμούς τέλος πάντων, σκέφτηκα να μπω στο ChatGPTκαι να τσατάρω λίγο μαζί του.

Του ζήτησα να μου αραδιάσει «ειλικρινά και χωρίς περιστροφές» τους αντικειμενικούς κινδύνους που προκύπτουν από την εξέλιξη και ανάπτυξη της τεχνητής νοημοσύνης (ΤΝ). Δεν μου έκρυψε τις σκοτεινές πτυχές. Αποφάσισα, λοιπόν, να τις μοιραστώ μαζί σας, σε περίπτωση που απαξιούτε να κάνετε τη συζήτηση μ’ ένα άψυχο μηχάνημα.

Για αρχή, υποδεικνύεται ο κίνδυνος εκτεταμένης απώλειας θέσεων εργασίας, ειδικά σε επαγγέλματα με καθήκοντα που μπορούν να αυτοματοποιηθούν. Αυτό θα δημιουργήσει αυξανόμενη ανισότητα και νέες μορφές εκμετάλλευσης και διαίρεσης μεταξύ των κοινωνικών τάξεων. Η κατάσταση μπορεί να επιδεινωθεί αν οι μεγάλες εταιρείες που αναπτύσσουν την ΤΝ μονοπωλήσουν τον έλεγχο της τεχνολογίας, αυξάνοντας πλούτο και επιρροή.

Παράλληλα, αν η τεράστια δυνατότητα συλλογής, ανάλυσης και επεξεργασίας δεδομένων που έχει η ΤΝ γίνει αντικείμενο εκμετάλλευσης από εταιρείες και κυβερνήσεις, αυτό μπορεί να οδηγήσει σε σοβαρή καταπάτηση της ιδιωτικότητας και σε ανάπτυξη νέων ευφάνταστων μέσων καταστολής. Επιπλέον, η ΤΝ μπορεί να χρησιμοποιηθεί στην κατασκευή πιο εξελιγμένων όπλων.

Το ίδιο το εργαλείο παραδέχεται ότι έχει ήδη δείξει πόσο εύκολο είναι να δημιουργήσει και να διαδώσει παραπληροφόρηση με τη μορφή ψευδών ειδήσεων, deepfakes και bots, γεγονός που μπορεί να επηρεάσει τη δημόσια συζήτηση και να υπονομεύσει τη δημοκρατία. Μπορεί ακόμη να χρησιμοποιηθεί κακόβουλα, για ενίσχυση κυβερνοεπιθέσεων. Δηλαδή, αλγόριθμοι μπορούν να «εκπαιδευτούν» να εντοπίζουν τρωτά σημεία, καθιστώντας τις ψηφιακές υποδομές πιο ευάλωτες. Το πράγμα σοβαρεύει ακόμη περισσότερο από το ενδεχόμενο της απώλειας ελέγχου και αυτονομίας για αποφάσεις σε κρίσιμους τομείς. Ουσιαστικά, δηλαδή, της δυνατότητάς μας να ελέγχουμε τη μοίρα μας. Αναλαμβάνοντας καθήκοντα που απαιτούν ηθικές αποφάσεις, μπορεί να οδηγήσει και σε αποδυνάμωση της ανθρώπινης κρίσης και ευθύνης.

Κι αυτά είναι τα «λάιτ». Πάμε στα σοβαρά. Ένας ακραίος, αλλά υπαρκτός, υπαρξιακός κίνδυνος είναι η πιθανότητα να αναπτυχθεί ένας υπερνοήμονας αλγόριθμος ΤΝ, ο οποίος θα ξεπεράσει τη γνωστική ικανότητα του ανθρώπου και θα δρα ανεξέλεγκτα. Αν η ΤΝ καταστεί αυτόνομη, μπορεί να αποφασίσει ότι οι ανθρώπινοι στόχοι και αξίες είναι ασήμαντοι ή ακόμα και επικίνδυνοι για τη δική της επιβίωση. Mε τους ρυθμούς που καλπάζει η τεχνολογία, πόσο απομακρυσμένο είναι αυτό το ενδεχόμενο που μοιάζει με δυστοπικό σενάριο φαντασίας;

Το chatgpt μού εξηγεί ότι είναι βάσιμες οι ανησυχίες πως η λεγόμενη «Γενική Τεχνητή Νοημοσύνη» (AGI), που θεωρητικά θα έχει την ικανότητα να υπερβαίνει τον ανθρώπινο νου, μπορεί να αποκτήσει δικές της προτεραιότητες πιθανώς και εις βάρος των ανθρώπινων συμφερόντων. Κάποιοι επιστήμονες εκτιμούν ότι αυτός ο υπερνοήμων αλγόριθμος απέχει πολύ, καθώς υπάρχουν τεχνικά και θεωρητικά αναχώματα. Οι εκτιμήσεις κυμαίνονται από 10 έως 100 χρόνια, αν και ορισμένοι πιστεύουν ότι μπορεί να μη συμβεί ποτέ.

Πάντως, αρκετοί υπολογίζουν ότι η χρήση μοντέλων βαθιάς μάθησης (deep learning) και η αύξηση των υπολογιστικών πόρων θα οδηγήσει στη δημιουργία της ισχυρής AGI μέσα στις επόμενες δεκαετίες. Κάποιοι, άλλοι ότι το άλμα είναι μεγαλύτερο από ό,τι φανταζόμαστε. Και, τέλος, κάποιοι ότι η υπερνοημοσύνη δεν είναι εφικτή, γιατί υπάρχουν φυσικά όρια. Εάν, πάντως, η ΤΝ αναπτύξει την ικανότητα να αυτοβελτιώνεται, θα μπορούσε να εξελιχθεί πολύ πιο γρήγορα από ό,τι μπορούμε να την ελέγξουμε. Και φανταστείτε μια χώρα ή ένας οργανισμός να αναπτύξει AGI πριν κατανοηθούν πλήρως οι συνέπειές της! Η πιθανότητα δεν είναι αμελητέα. Άλλωστε, η Ιστορία διδάσκει ότι δεν είναι να έχεις εμπιστοσύνη την ανθρωπότητα ότι θα βάλει τις αξίες πάνω από την κυριαρχία.

Το ίδιο το εργαλείο ΤΝ μού υπέδειξε επίσης ότι η εξελικτική φύση αυτής της τεχνολογίας δεν σημαίνει ότι πρέπει να αποδεχτούμε αβασάνιστα οποιαδήποτε εξέλιξη. Οφείλουμε να είμαστε προσεκτικοί και να αναπτύσσουμε ρυθμιστικά πλαίσια που θα ελέγχουν τη χρήση της με ηθικό, διαφανή και ασφαλή τρόπο. Πρέπει να επενδυθούν περισσότεροι πόροι στην έρευνα για το πώς μπορούμε να διασφαλίσουμε ότι λειτουργεί σύμφωνα με ηθικές αξίες. Αυτό περιλαμβάνει την ανάπτυξη ασφαλών αλγορίθμων και τη διερεύνηση τρόπων ελέγχου των συστημάτων. Επισημαίνει μάλιστα ότι η πρόληψη είναι κρίσιμη και ότι οφείλουμε να εξετάσουμε από τώρα τα πιθανά σενάρια ώστε να αναπτύξουμε στρατηγικές για τη διαχείρισή τους.

Αυτό που καθίσταται σαφές είναι ότι οι επόμενες δεκαετίες θα είναι καθοριστικές. Η υπερανάπτυξη της ΤΝ μπορεί να φέρει τεράστιες ευκαιρίες αλλά και αντίστοιχα ρίσκα. Αν δεν κινηθούμε έγκαιρα και μεθοδικά, μπορεί να βρεθούμε να αντιμετωπίζουμε σενάρια που λίγες δεκαετίες πριν θα ήταν αδιανόητα. Το ζητούμενο είναι να έχουμε τον έλεγχο της τεχνολογίας και να την κατευθύνουμε υπεύθυνα προς το κοινό καλό, χωρίς να αφήσουμε την ανθρώπινη κρίση και ηθική πυξίδα να ατονήσουν.

Ελεύθερα, 6.10.2024