26 Δεκεμβρίου, 2024

Έπεσε στα μάτια μου πρόσφατα το παρακάτω απόσπασμα από μια συζήτηση του Στέλιου Ράμφου και της Μαρίας Ευθυμίου στο Impactalk σχετικά με το μέλλον της ανθρωπότητας -ΟΚ λίγο μεγαλεπήβολο αυτό- σε σχέση με την Τεχνητή Νοημοσύνη (ΤΝ/AI). Διαπιστώνω ότι ακόμη και πολύ έξυπνοι άνθρωποι δε μπορούν να αντιληφθούν τι είναι τεχνητή νοημοσύνη και πως καταρχάς δεν είναι νοημοσύνη. Δε θεωρούν ότι τα κομπιουτεράκια που κάνουν τεράστιες πράξεις πολύ γρήγορα είναι νοημοσύνη; Γιατί θεωρούν ότι τα κομπιούτερ που συνδυάζουν απίστευτα γρήγορα ανθρώπινο κείμενο είναι;

Λέει σε ένα σημείο ο Ράμφος:

“Η ΤΝ έχει ένα μειονέκτημα. Δεν έχει βλακεία.”

Καταρχάς τι θα προτιμούσε; Να έχει βλακεία; Να κάνει σοβαρά και επικίνδυνα λάθη; Φυσικά και δε θα το ήθελε αυτό. Δε θα μας ήταν χρήσιμη αν το έκανε αυτό. Αλλά μήπως όλα τα άλλα μας εργαλεία δεν τυγχάνουν συχνά κακής χρήσης από τους ανθρώπους; Εκεί έκανε το λάθος, απέδωσε προθέσεις στην τεχνητή νοημοσύνη, κάτι που ακόμα παραμένει μοναδικό χαρακτηριστικό των ανθρώπων. Γιατί, κατά τα άλλα η τεχνητή νοημοσύνη, κάνει και λάθη, θυμόμαστε όλοι τις εικόνες ανθρώπων με περισσότερα από πέντε δάχτυλα ή τις λεγόμενες παραισθήσεις που καμιά φορά παθαίνει. Ε, έχει και βλακεία όπως ένα αυτοκίνητο μπορεί κάποιος να το γκαζώσει ίσα πάνω σε έναν τοίχο.

Λέει, επίσης, λίγο πιο μετά:

“Η ανθρωπότητα θα σκέφτεται ευθύγραμμα, δε θα συνθέτει, άρα, κατά κάποιο τρόπο, θα ακυρωθεί ένα θεμελιώδες χαρακτηριστικό της.”

Δε φοβόμαστε το ίδιο όμως όταν ανεβαίνουμε σε ένα αεροπλάνο χωρίς να ξέρουμε καθόλου πως αυτό λειτουργεί και πώς ο άνεμος με τη βοήθεια της διαφοράς πίεσής του στα φτερά το βοηθά να απογειωθεί και να πετάξει. Σκεφτόμαστε και λειτουργούμε σε ένα ανώτερο επίπεδο, έχοντας λύσει τα προβλήματα του κατώτερου επιπέδου και χωρίς να ανησυχούμε για αυτά. Ακόμα χειρότερα: χωρίς να τα ξέρουμε, χωρίς να μπορούμε να τα λύσουμε οι ίδιοι.

Μπορώ όμως να ακούσω το παραπάνω επιχείρημα ως επιχείρημα κατά της πνευματική ως νωθρότητας. Όπως ξεχάσαμε να κάνουμε διαίρεση στο χέρι -ή στο μυαλό- ποιος ξέρει τι άλλο μπορεί να ξεχάσουμε χρησιμοποιώντας την τεχνητή νοημοσύνη; Κι αυτό το κάτι θα είναι τελικά κάτι εξαιρετικά σημαντικό ή ίσως και όχι; Δεν έχω απάντηση για αυτό, όμως πιστεύω ότι η νωθρότητα που προκύπτει από την αδυναμία ακόμη και για την πράξη της διαίρεσης δε μας είναι ωφέλιμη. Ας ξέρουμε πώς να κάνουμε διαίρεση και ας μας την κάνουν με ακρίβεια τα κομπιουτεράκια.

Ποιος ξέρει, ίσως στο μέλλον καταλήξουμε να κάνουμε ασκήσεις πνευματικής εγρήγορσης για να καταπολεμήσουμε τη νωθρότητα του πνεύματος, όπως εδώ και δεκαετίας έχουμε συνειδητοποιήσει ότι χρειαζόμαστε ασκήσεις σωματικές για να καταπολεμήσουμε τη σωματική νωθρότητα, στην οποία καταπέσαμε επειδή λύσαμε μυριάδες πρακτικά προβλήματα της καθημερινότητάς μας και πλέον το σώμα μας δεν ασκείται οργανικά, στον καθημερινό μόχθο, στην καθημερινή εργασία.

Είναι όμως η τεχνητή νοημοσύνη ένα εργαλείο χωρίς κινδύνους; Οπωσδήποτε όχι. Οι πραγματικοί κίνδυνοι που βλέπω είναι:

  • Τα πνευματικά δικαιώματα των περιεχομένων που καταναλώνει και για τα οποία κυρίως αδιαφορεί.
  • Η βίαιη διατάραξη του τρόπου εργασίας πολλών πεδίων που έχουν τη γλώσσα ως βασικό τους εργαλείο.
  • Τα προσωπικά δεδομένα χρηστών που διαχέονται σε σχεδόν άγνωστες εκτάσεις του νέφους.
  • Η εκτεταμένη χρήση της σε μεγάλη κλίμακα σε συστήματα αποφάσεων όπου μικρά λάθη μπορούν να έχουν μεγάλες επιπτώσεις.
  • Η χρήση της από καταπιεστικά καθεστώτα, όπως το κομμουνιστικό κινεζικό, για τη χειραγώγηση και τον έλεγχο των πολιτών και των εργαζομένων.

Αυτά πρέπει να τα προσέξουμε!

Image credit: “Big Brother is watching you” by digital cat is licensed under CC BY 2.0.

εκτύπωση Κατηγορίες: ακατηγοριοποίητα, απόψεις | rss 2.0 | trackback | καθόλου σχόλια