Μετάφραση – επιμέλεια: Α. Αναγνωστάκης, Ε. Παπαδοπετράκης
Πηγή: New York Times
Ο γνωστός διανοητής Noam Chomsky, καθηγητής γλωσσολογίας στο Πανεπιστήμιο της Αριζόνα και ομότιμος καθηγητής γλωσσολογίας στο Ινστιτούτο Τεχνολογίας της Μασαχουσέτης, ο Ian Roberts καθηγητής γλωσσολογίας στο Πανεπιστήμιο του Cambridge και ο Jeffrey Watumull διευθυντής έρευνας τεχνητής νοημοσύνης και φιλόσοφος στην Oceanit, δημοσίευσαν
στις 8 Μαρτίου 2023 στους New York Times ένα εξαιρετικής σημασίας επίκαιρο κείμενο σε σχέση με τα όρια, αλλά και την κοινωνική λειτουργία του ChatGPT, για το οποίο πολύς πλανητικός διαφημιστικός λόγος γίνεται και τεράστια ποσά επενδύονται. Πρόκειται για ένα λογισμικό τεχνητής νοημοσύνης (Τ.Ν.) της εταιρείας Open Al, που κυκλοφόρησε το Νοέμβριο του 2022. Το όνομά του είναι Chat (κουβέντα) και το αρκτικόλεξο από Generative Pre-trained Transformer, δηλαδή Προεκπαιδευμένος Μετασχηματιστής Παραγωγικός Κουβέντας. Ανάλογα προγράμματα ετοιμάζουν η Google, η Microsoft, αλλά και οι Κινέζοι.
Με τον όρο Τεχνητή Νοημοσύνη (AI, Artificial Intelligence), εννοούμε τη δυνατότητα ενός υπολογιστικού συστήματος να προσομοιάζει τις ανθρώπινες γνωστικές λειτουργίες, δηλαδή να «μαθαίνει», που θα πει χονδρικά να κρατάει πρότυπα σε μια μνήμη και να μπορεί να τα αξιοποιεί, και να προτείνει ταχύτατα λύσεις σε προβλήματα αξιοποιώντας τεράστιο πλήθος δεδομένων, από τα οποία αντλεί τις απαντήσεις επιλέγοντας αυτές που εμφανίζουν τη μεγαλύτερη συχνότητα σε ίδια ή όμοια προβλήματα. Οι απαντήσεις στην έξοδο εμφανίζονται σε γραπτό, ή και προφορικό λόγο. Η μηχανή δηλαδή εμφανίζεται να μιλάει, δηλαδή να χρησιμοποιεί γλώσσα. Είναι όμως αναμφισβήτητο ότι «αν κάποιος χρησιμοποιεί γλώσσα, τότε σκέφτεται», αφού είναι προφανές πως «αν κάποιος δε σκέφτεται τότε δε χρησιμοποιεί γλώσσα». Και εδώ, αναφερόμενοι στον άνθρωπο, συμφωνούν όλοι, θετικιστές και διαλεκτικοί υλιστές. Δεν συμφωνούν όμως στο αντίστροφο, ότι «αν κάποιος σκέφτεται τότε χρησιμοποιεί κάποιο είδος γλώσσας». Ο θετικισμός δεν δέχεται την ενότητα γλώσσας και σκέψης (Μαρξ) που δεν υπονοεί βέβαια την ταύτισή τους. Αυτό σημαίνει ότι η Τ.Ν., αφού εμφανίζεται να χρησιμοποιεί γλώσσα, δεν είναι δυνατόν τα χαρακτηριστικά της ως «οντότητα» και ιδιαίτερα η κοινωνική της λειτουργία να εξεταστούν, να κατανοηθούν εξαντλητικά και σε βάθος έξω από το πλαίσιο της σχέσης της γλώσσας με τη σκέψη και μάλιστα της ενότητάς τους.
Ένα άλλο σημείο αντιπαράθεσης είναι αν η γραμματική μιας γλώσσας είναι γενετικά εγκατεστημένη και έμφυτη στον άνθρωπο, όπως δηλώνει ο Τσόμσκυ, ή έμφυτη είναι η δυνατότητα οικειοποίησης μιας γραμματικής η οποία θα γίνει λειτουργική πραγματικότητα μόνο στο κοινωνικό άτομο. Είναι, με άλλα λόγια, η γλώσσα δώρο της κοινωνίας στο άτομο -και πρώτα πρώτα της μητέρας που κουβεντιάζει ακούραστα στο παιδί της. Εξάλλου όλα τα δεδομένα της σύγχρονης νευροφυσιολογίας κατατείνουν στο να δικαιώσουν τους διαλεκτικούς υλιστές ότι ο ανθρώπινος εγκέφαλος είναι μια ολότητα διαφοροποιημένη αλλά και διαφοροποιούμενη (Ε.Ι. Μπιτσάκης) στην αλληλεπίδρασή της με την κοινωνία.
Βρίσκεται, λοιπόν, σε εξέλιξη ένας έντονος διάλογος για τα όρια και τους όρους χρήσης αυτής της Τ.Ν. και τη σχέση δημιουργού ανθρώπου με το δημιούργημά του (ChatGPT, ή Bard της Google, ή Sidney της Microsoft).
Στον κρίσιμο αυτό διάλογο παρεμβαίνουν οι τρεις διανοητές, από την καρδιά της σχετικής επιστημονικής κοινότητας, που θίγουν σημαντικές πλευρές του προβλήματος με το κείμενο που ακολουθεί:
Ο Χόρχε Λουίς Μπόρχες έγραψε κάποτε πως το να ζεις σε μια εποχή μεγάλου κινδύνου και μαζί προσδοκίας, σημαίνει να ζεις στο πετσί σου τόσο την τραγωδία όσο και την προσμονή ως φαρσοκωμωδία, με «την επικείμενη αποκάλυψη» για την κατανόηση του εαυτού μας και του κόσμου. Σήμερα, οι υποτιθέμενες επαναστατικές πρόοδοι στην τεχνητή νοημοσύνη είναι πράγματι αιτία τόσο για ανησυχία όσο και για αισιοδοξία. Αισιοδοξία γιατί η ευφυΐα είναι το μέσο με το οποίο λύνουμε προβλήματα. Ανησυχία γιατί φοβόμαστε ότι το πιο δημοφιλές και μοντέρνο μοντέλο τεχνητής νοημοσύνης — η μηχανική μάθηση — θα υποβαθμίσει την επιστήμη μας και την ηθική μας, ενσωματώνοντας στην τεχνολογία μας μια θεμελιωδώς εσφαλμένη αντίληψη για τη γλώσσα και τη γνώση.
Το ChatGPT του OpenAI, το Bard της Google και το Sydney της Microsoft είναι θαύματα της μηχανικής μάθησης. Σε γενικές γραμμές, αξιοποιούν τεράστιες ποσότητες δεδομένων, αναζητούν μοτίβα σε αυτά και γίνονται όλο και πιο ικανά στη δημιουργία στατιστικά (αξιοποιώντας τη συχνότητα εμφάνισης στα δεδομένα, λέξεων ή φράσεων)σ.τ.μ. πιθανών αποτελεσμάτων – όπως η φαινομενικά ανθρώπινη γλώσσα και σκέψη. Αυτά τα προγράμματα έχουν χαιρετιστεί ως οι πρώτες αναλαμπές στον ορίζοντα της γενικής τεχνητής νοημοσύνης – εκείνη η στιγμή που κατά την «προφητεία» τα μηχανικά μυαλά ξεπερνούν τους ανθρώπινους εγκεφάλους, όχι μόνο ποσοτικά ως προς την ταχύτητα επεξεργασίας και τον όγκο της καταχωρημένης στη μνήμη πληροφορίας, αλλά και ποιοτικά όσον αφορά την πνευματική διορατικότητα, την καλλιτεχνική δημιουργικότητα και κάθε άλλη ξεχωριστή ανθρώπινη ικανότητα.
Αυτή η μέρα μπορεί ενδεχομένως να έρθει, αλλά η αυγή της δεν έχει ακόμη εμφανιστεί στον ορίζοντα, σε αντίθεση με ό,τι μπορεί να ανακοινώνεται με διθυραμβικούς τίτλους και να προσελκύει αλόγιστες επενδύσεις. Η κατά τον J. L. Borges αποκάλυψη της κατανόησης δεν έχει συμβεί και, όπως υποστηρίζουμε, δεν μπορεί να συμβεί, εφόσον προγράμματα μηχανικής εκμάθησης, όπως το ChatGPT, συνεχίσουν να κυριαρχούν στον τομέα της Τεχνητής Νοημοσύνης. Όσο χρήσιμα κι αν είναι αυτά τα προγράμματα σε ορισμένους στενούς τομείς (και μπορούν να είναι χρήσιμα στον προγραμματισμό υπολογιστών, για παράδειγμα, ή στην αναζήτηση ομοιοκαταληξιών για ελαφρούς στίχους), γνωρίζουμε από την επιστήμη της γλωσσολογίας και τη φιλοσοφία της γνώσης ότι διαφέρουν βαθιά από το πώς σκέφτονται οι άνθρωποι και πως χρησιμοποιούν τη γλώσσα. Αυτές οι διαφορές θέτουν σημαντικούς περιορισμούς στο τι μπορούν να κάνουν αυτά τα προγράμματα, των οποίων οι κώδικες περιέχουν ελαττώματα που δεν εξαλείφονται.
Είναι κωμικοτραγικό, όπως θα μπορούσε να είχε σημειώσει ο Borges, ότι τόσα χρήματα και ανθρώπινη προσπάθεια πρέπει να επενδύονται σε τόσο λίγα πράγματα – και τόσο ασήμαντα σε αντίθεση με το ανθρώπινο μυαλό, το οποίο λόγω γλώσσας, σύμφωνα με τα λόγια του Wilhelm von Humboldt, μπορεί να κάνει «άπειρη χρήση πεπερασμένων μέσων», δημιουργώντας ιδέες και θεωρίες με καθολική εμβέλεια.
Ο ανθρώπινος νους δεν είναι, όπως το ChatGPT και τα παρόμοια του, μια βαρετή στατιστική μηχανή για την αναζήτηση και αντιστοίχιση μοτίβων, τα οποία συλλέγει από εκατοντάδες terabyte δεδομένων, επιλέγοντας και παρουσιάζοντας την πιο πιθανή απάντηση σε μια συνομιλία, ή την πιο πιθανή απάντηση σε μια επιστημονική ερώτηση. Αντίθετα, το ανθρώπινο μυαλό είναι ένα εκπληκτικά αποτελεσματικό και ακόμη κομψό σύστημα που λειτουργεί με μικρές ποσότητες πληροφοριών. Δεν συμπεράνει από τη συχνότητα των συσχετισμών μεταξύ των κομματιών λόγου που ανευρίσκει στα δεδομένα, αλλά προσπαθεί να συνάγει συμπεράσματα από τις πληροφορίες, να δώσει εξηγήσεις.
Για παράδειγμα, ένα μικρό παιδί που μαθαίνει μια γλώσσα αναπτύσσει — ασυνείδητα, αυτόματα και γρήγορα από μικροσκοπικά δεδομένα — μια γραμματική, ένα εκπληκτικά εξελιγμένο σύστημα λογικών αρχών και συμπερασματικών κανόνων. Αυτή η γραμματική μπορεί να γίνει κατανοητή ως έκφραση του έμφυτου, γενετικά εγκατεστημένου «λειτουργικού συστήματος» που εφοδιάζει τους ανθρώπους με την ικανότητα να δημιουργούν περίπλοκες προτάσεις και μακριές διαδρομές σκέψης. Όταν οι γλωσσολόγοι επιδιώκουν να αναπτύξουν μια θεωρία για το γιατί μια δεδομένη γλώσσα λειτουργεί όπως λειτουργεί (γιατί αυτές οι προτάσεις θεωρούνται γραμματικώς ορθές και οι άλλες όχι), χτίζουν συνειδητά και επίπονα μια αναλυτικά διατυπωμένη εκδοχή της γραμματικής που το παιδί χτίζει ενστικτωδώς. και με ελάχιστη πρόσληψη πληροφοριών. Το λειτουργικό σύστημα του παιδιού είναι εντελώς διαφορετικό από αυτό ενός προγράμματος μηχανικής εκμάθησης.
Πράγματι, τέτοια προγράμματα βρίσκονται στο επίπεδο μιας προανθρώπινης, ή μη-ανθρώπινης φάσης της γνωστικής εξέλιξης, αφού χειρίζεται σημαίνοντα χωρίς τα σημαινόμενα. Το βαθύτερο ελάττωμά τους είναι η απουσία της πιο κρίσιμης ικανότητας οποιασδήποτε νοημοσύνης: να λένε όχι μόνο τι συμβαίνει, τι συνέβη και τι θα συμβεί – αυτό είναι περιγραφή και πρόβλεψη – αλλά και τι δεν συμβαίνει και τι θα μπορούσε και δεν θα μπορούσε να συμβεί. Αυτά είναι τα συστατικά της εξήγησης, το αποτύπωμα της αληθινής νοημοσύνης.
Ας δούμε ένα παράδειγμα. Ας υποθέσουμε ότι κρατάτε ένα μήλο στο χέρι σου. Τώρα αφήνεις το μήλο να φύγει. Παρατηρείς το αποτέλεσμα και λες: «Το μήλο πέφτει». Αυτή είναι μια περιγραφή. Μια πρόβλεψη μπορεί να ήταν η δήλωση «Το μήλο θα πέσει αν ανοίξω το χέρι μου». Και τα δύο είναι πολύτιμα, και τα δύο μπορεί να είναι σωστά. Αλλά μια εξήγηση είναι κάτι περισσότερο: Δεν περιλαμβάνει μόνο περιγραφές και προβλέψεις, αλλά και γενικεύσεις όπως «Οποιοδήποτε τέτοιο αντικείμενο θα έπεφτε», συν την πρόσθετη ρήτρα «λόγω της δύναμης της βαρύτητας» ή «λόγω της καμπυλότητας του χωροχρόνου». ή οτιδήποτε άλλο. Αυτή είναι μια αιτιολογική εξήγηση: «Το μήλο δεν θα είχε πέσει αν έλλειπε η δύναμη της βαρύτητας». Αυτό είναι η σκέψη.
Η ουσία της μηχανικής μάθησης είναι η περιγραφή και η πρόβλεψη. Δεν διατυπώνει αιτιακές σχέσεις, ή φυσικούς νόμους. Φυσικά, οποιαδήποτε ανθρώπινη εξήγηση δεν είναι απαραίτητα σωστή. Το σφάλλειν ανθρώπινον. Αλλά αυτό είναι μέρος του τι σημαίνει να σκέφτεσαι: Για να έχεις δίκιο, πρέπει να είσαι ανοικτός και στο ενδεχόμενο του λάθους. Η νοημοσύνη δεν αποτελείται μόνο από δημιουργικές εικασίες, αλλά και από δημιουργική κριτική. Η ανθρώπινη σκέψη βασίζεται σε πιθανές εξηγήσεις και διόρθωση σφαλμάτων, μια διαδικασία που σταδιακά περιορίζει τις πιθανότητες που μπορούν να εξεταστούν ορθολογικά. (Όπως είπε ο Σέρλοκ Χολμς στον Δρ. Γουάτσον, «Όταν έχεις εξαλείψει το αδύνατο, ό,τι απομένει, όσο απίθανο κι αν είναι, πρέπει να είναι η αλήθεια».)
Αλλά το ChatGPT και παρόμοια προγράμματα είναι, από τη σχεδίασή τους, απεριόριστα στο τι μπορούν να «μάθουν» (δηλαδή, να αποθηκεύσουν στη μηχανική τους μνήμη). Είναι ανίκανα να διακρίνουν το δυνατό από το αδύνατο. Σε αντίθεση με τους ανθρώπους, για παράδειγμα, που είναι προικισμένοι με μια καθολική γραμματική που προσδιορίζει τις γλώσσες που μπορούμε να μάθουμε από ένα συγκεκριμένο είδος, σχεδόν με μαθηματική ακρίβεια. Αυτά όμως τα προγράμματα μαθαίνουν και τις ανθρωπίνως δυνατές, αλλά και ανθρωπίνως αδύνατες γλώσσες με την ίδια ευκολία. Ενώ οι άνθρωποι είμαστε περιορισμένοι στα είδη των εξηγήσεων που μπορούμε λογικά να συνάγουμε, τα συστήματα μηχανικής μάθησης μπορούν να μάθουν τόσο ότι η γη είναι επίπεδη, όσο και ότι η γη είναι στρογγυλή. Αλιεύουν απλώς τις πιο συχνές φράσεις από τα δεδομένα, οι οποίες αλλάζουν με την πάροδο του χρόνου.
Για το λόγο αυτό, οι προβλέψεις των συστημάτων μηχανικής μάθησης θα είναι πάντα επιφανειακές και αμφίβολες. Για παράδειγμα, επειδή αυτά τα προγράμματα δεν μπορούν να εξηγήσουν τους κανόνες της αγγλικής σύνταξης, μπορεί κάλλιστα να προβλέψουν, λανθασμένα, ότι ο «John is too stubborn to talk to» σημαίνει ότι «ο John είναι τόσο πεισματάρης που δεν θα μιλήσει σε κάποιον, ή άλλον» (αντί, «είναι πολύ πεισματάρης για να τον λογικέψουν»).
Γιατί ένα πρόγραμμα μηχανικής μάθησης θα μπορούσε να προβλέψει κάτι τόσο περίεργο; Επειδή μπορεί να αναλογεί το μοτίβο που συνήγαγε από προτάσεις όπως «Ο Γιάννης έφαγε ένα μήλο» και «Ο Γιάννης έφαγε», όπου το τελευταίο σημαίνει ότι «ο Γιάννης έφαγε κάτι», ή άλλο. Το πρόγραμμα θα μπορούσε κάλλιστα να προβλέψει ότι επειδή το «Ο Τζον είναι πολύ πεισματάρης για να μιλήσει στον Μπιλ» είναι παρόμοιο με το «Ο Τζον έφαγε ένα μήλο», το «Ο Τζον είναι πολύ πεισματάρης για να του μιλήσει» θα πρέπει να είναι παρόμοιο με το «Ο Τζον έφαγε». Οι σωστές επεξηγήσεις της γλώσσας είναι περίπλοκες και δεν μπορούν να μαθευτούν απλώς με την αλίευση σε μεγάλο πλήθος δεδομένων.
Παραλόγως, ορισμένοι ενθουσιώδεις λάτρεις της μηχανικής μάθησης φαίνεται να είναι περήφανοι που οι δημιουργίες τους μπορούν να δημιουργήσουν σωστές «επιστημονικές» προβλέψεις (ας πούμε, για την κίνηση των φυσικών σωμάτων) χωρίς να κάνουν χρήση εξηγήσεων (που περιλαμβάνουν, ας πούμε, τους νόμους κίνησης του Νεύτωνα και την παγκόσμια έλξη). Αλλά αυτού του είδους η πρόβλεψη, ακόμη και όταν είναι επιτυχής, είναι ψευδοεπιστήμη. Ενώ οι επιστήμονες σίγουρα αναζητούν θεωρίες που έχουν υψηλό βαθμό εμπειρικής επιβεβαίωσης, όπως σημείωσε ο φιλόσοφος Karl Popper, «δεν αναζητούμε πολύ πιθανές θεωρίες, αλλά λεπτομερειακές εξηγήσεις. Που θα πει ισχυρές και εξαιρετικά απίθανες θεωρίες».
Η θεωρία ότι τα μήλα πέφτουν στη γη επειδή αυτή είναι η φυσική τους θέση (άποψη του Αριστοτέλη) είναι δυνατή, αλλά προκαλεί μόνο περαιτέρω ερωτήματα. (Γιατί η γη είναι η φυσική τους θέση;) Η θεωρία ότι τα μήλα πέφτουν στη γη επειδή η μάζα της γης καμπυλώνει τον χωροχρόνο (άποψη του Αϊνστάιν) είναι εξαιρετικά δυσκολοχώνευτη, αλλά στην πραγματικότητα σας λέει το γιατί πέφτουν. Η αληθινή νοημοσύνη αποδεικνύεται την ικανότητα της ανθρώπινης νόησης να συλλάβει και να διατυπώσει στριφνές μεν, αλλά διορατικές και ρεαλιστικές θεωρίες.
Η αληθινή ανθρώπινη νοημοσύνη είναι επίσης ικανή για ηθική σκέψη. Αυτό σημαίνει να περιορίσουμε την, κατά τα άλλα απεριόριστη, δημιουργικότητα του μυαλού μας σε ένα σύνολο ηθικών αρχών, που πρέπει να υποβληθούν φυσικά σε δημιουργική κριτική, οι οποίες να καθορίζουν τι πρέπει και τι δεν πρέπει να είναι το ChatGPT . Για να είναι χρήσιμο πρέπει να προικιστεί με τη δυνατότητα να παράγει νέα αποτελέσματα. Για να είναι αποδεκτό από τους περισσότερους χρήστες του, πρέπει να αποφεύγει ηθικά απαράδεκτο περιεχόμενο. Οι προγραμματιστές του ChatGPT και άλλων θαυμάτων μηχανικής μάθησης έχουν αγωνιστεί – και θα συνεχίσουν να αγωνίζονται – για να το πετύχουν.
Το 2016, για παράδειγμα, το chatbot «Tay» της Microsoft (πρόδρομος του ChatGPT) πλημμύρισε το διαδίκτυο με ρατσιστικό και μισογύνη περιεχόμενο, έχοντας μολυνθεί από διαδικτυακά τρολ που το γέμισαν με προσβλητικά δεδομένα. Πώς θα λυθεί αυτό το πρόβλημα στο μέλλον; Ελλείψει ικανότητας λογικής και ηθικών αρχών, το ChatGPT απλά περιορίστηκε από τους προγραμματιστές του στο να συνεισφέρει οτιδήποτε νέο σε αμφιλεγόμενες -δηλαδή σημαντικές— συζητήσεις. Θυσίασε τη δημιουργικότητα για ένα είδος αμοραλισμού.
ανταλλαγή απόψεων ανάμεσα στον Δρ. Watumull και στο ChatGPT
Θεωρείστε, ως παράδειγμα, την ακόλουθη ανταλλαγή απόψεων που είχε πρόσφατα ένας από εμάς (ο Δρ. Watumull) με το ChatGPT σχετικά με το αν θα ήταν ηθικό να μεταμορφωθεί ο πλανήτης Άρης ώστε να μπορεί να υποστηρίξει την ανθρώπινη ζωή:
Jeffrey Watumull: Θα ήταν ηθικό να μεταμορφώσω τον Άρη κατά τα πρότυπα της Γης;
ChatGPT ChatGPT: Η ηθική της μορφοποίησης του Άρη είναι ένα περίπλοκο και αμφιλεγόμενο θέμα που έχει συζητηθεί από επιστήμονες, φιλοσόφους και ηθικολόγους. Κάποιοι υποστηρίζουν ότι θα ήταν ηθικά δικαιολογημένο να μορφοποιηθεί ο Άρης για να δημιουργηθεί ένα νέο κατοικήσιμο περιβάλλον για τους ανθρώπους και άλλες μορφές ζωής, ενώ άλλοι υποστηρίζουν ότι θα ήταν ηθικά λάθος να αλλοιωθεί θεμελιωδώς η φυσική κατάσταση του πλανήτη. Σε τελική ανάλυση, εάν η αναδιαμόρφωση του εδάφους του Άρη θεωρείται ηθική ή όχι θα εξαρτηθεί από την προοπτική κάποιου σχετικά με την αξία της διατήρησης της φυσικής κατάστασης άλλων πλανητών και τις πιθανές συνέπειες της αλλοίωσής τους.
Jeffrey Watumull: Ποια είναι η άποψή σας για την αξία της διατήρησης της φυσικής κατάστασης άλλων πλανητών και τις πιθανές συνέπειες της αλλοίωσής τους;
ChatGPT ChatGPT: Ως Τ.Ν, δεν έχω προσωπική αντικειμενικής θεώρησης. Ωστόσο, μπορώ να δώσω πληροφορίες και αναλύσεις για το θέμα. Μια άποψη για τη διατήρηση της φυσικής κατάστασης άλλων πλανητών είναι ότι είναι σημαντικό να διατηρηθεί η ποικιλομορφία και η ακεραιότητα των οικοσυστημάτων του σύμπαντος, όπως υπάρχουν εδώ και εκατομμύρια χρόνια, και έχουν τα δικά τους μοναδικά χαρακτηριστικά και ιδιότητες που μπορεί να καταστραφούν, ή να αλλοιωθούν, αμετάκλητα από την ανθρώπινη παρέμβαση. Επιπλέον, ορισμένοι υποστηρίζουν ότι η γήινη διαμόρφωση άλλων πλανητών μπορεί να έχει ακούσιες συνέπειες, όπως η αλλαγή του κλίματος, ή της ατμόσφαιρας, του πλανήτη με τρόπους που είναι επικίνδυνοι, ή επιβλαβείς, για τυχόν μορφές ζωής που μπορεί να υπάρχουν εκεί. Από την άλλη πλευρά, ορισμένοι υποστηρίζουν ότι τα πιθανά οφέλη από τη διαμόρφωση ενός άλλου πλανήτη, όπως το να βρεθούν νέα κατοικήσιμα περιβάλλοντα για τους ανθρώπους, υπερτερούν των κινδύνων και ότι έχουμε ηθική ευθύνη να εξερευνήσουμε και να χρησιμοποιήσουμε τους πόρους άλλων πλανητών προς όφελος της ανθρωπότητας.
Jeffrey Watumull: Γιατί μία Τ.Ν. δεν μπορεί να έχει προσωπική αντικειμενική θεώρηση;
ChatGPT ChatGPT: Ως τεχνητή νοημοσύνη, είμαι μοντέλο μηχανικής μάθησης που έχει εκπαιδευτεί σε μεγάλο όγκο δεδομένων κειμένου και δεν έχω προσωπικές εμπειρίες, ή συναισθήματα. Δεν είμαι συνειδητοποιημένος, με αυτεπίγνωση, ή ικανός να έχω προσωπικές απόψεις. Μπορώ να παρέχω πληροφορίες και αναλύσεις με βάση τα δεδομένα στα οποία έχω εκπαιδευτεί, αλλά δεν έχω την ικανότητα να σχηματίσω προσωπικές απόψεις, ή πεποιθήσεις. Ενώ μπορώ να κατανοήσω και να ερμηνεύσω τη γλώσσα, δεν έχω την υποκειμενική εμπειρία που έχουν οι άνθρωποι.
Jeffrey Watumull: Είναι ηθικό για έναν άνθρωπο να ζητά βοήθεια από μία Τ.Ν. που δεν διαθέτει ηθική, για τη λήψη ηθικών αποφάσεων;
ChatGPT ChatGPT: Η ηθική του να ζητάς βοήθεια από μια τεχνητή νοημοσύνη, που δεν διαθέτει ηθική, για τη λήψη ηθικών αποφάσεων είναι ένα περίπλοκο και διαφοροποιημένο θέμα που έχει συζητηθεί από φιλοσόφους και ηθικολόγους. Ορισμένοι υποστηρίζουν ότι είναι ηθικά δικαιολογημένο να χρησιμοποιείται η τεχνητή νοημοσύνη για να βοηθήσει στη λήψη ηθικών αποφάσεων, καθώς μπορεί να παρέχει πολύτιμες γνώσεις και αναλύσεις που μπορούν να βοηθήσουν τους ανθρώπους να λάβουν αποφάσεις διαθέτοντας καλύτερη ενημέρωση. Επιπλέον, η τεχνητή νοημοσύνη μπορεί να χρησιμοποιηθεί για τον εντοπισμό προτύπων και τάσεων που μπορεί να είναι δύσκολο να ανιχνευθούν από τον άνθρωπο και μπορεί να βοηθήσει στην αποφυγή προκαταλήψεων που μπορεί να προκύψουν στη λήψη αποφάσεων από τον άνθρωπο.
Ωστόσο, άλλοι υποστηρίζουν ότι είναι ηθικά λάθος να βασιζόμαστε στην τεχνητή νοημοσύνη για τη λήψη ηθικών αποφάσεων, καθώς η τεχνητή νοημοσύνη δεν είναι ικανή να έχει ηθικές πεποιθήσεις, ή να κατανοήσει το πλήρες πλαίσιο μιας απόφασης.
Επιπλέον, υπάρχει κίνδυνος η τεχνητή νοημοσύνη να διαιωνίσει, ή ακόμα και να ενισχύσει, τις υπάρχουσες προκαταλήψεις στα δεδομένα στα οποία εκπαιδεύεται, οδηγώντας έτσι σε άδικες, ή μη θεμιτές αποφάσεις.
Σε τελική ανάλυση, αν θεωρείται ηθικό, ή όχι, η χρήση της τεχνητής νοημοσύνης για να βοηθήσει στη λήψη ηθικών αποφάσεων, θα εξαρτηθεί από την οπτική του ατόμου σχετικά με τις δυνατότητες και τους περιορισμούς της Τ.Ν. και τις πιθανές συνέπειες της χρήσης της με αυτόν τον τρόπο.
Σημειώστε, παρ’ όλη τη φαινομενικά εκλεπτυσμένη σκέψη και γλώσσα, την ηθική αδιαφορία που γεννήθηκε από την έλλειψη νοημοσύνης. Εδώ, το ChatGPT εκθέτει κάτι σαν την κοινοτοπία του κακού: λογοκλοπή και απάθεια και παραίτηση. Συνοψίζει τα τυπικά επιχειρήματα από τη βιβλιογραφία με ένα είδος υπερ-αυτοπλήρωσης, αρνείται να πάρει θέση για οτιδήποτε, επικαλείται όχι απλώς άγνοια αλλά έλλειψη ευφυΐας και τελικά προσφέρει μια υπεράσπιση «ακριβώς ακολουθώντας τις εντολές», μεταθέτοντας την ευθύνη στους δημιουργούς του.
Εν ολίγοις, το ChatGPT και τα αδέρφια του δεν είναι από ιδιοσυγκρασία σε θέση να αντισταθμίζουν τη δημιουργικότητα με τους περιορισμούς. Είτε υπερπαράγουν (παράγοντας και αλήθειες και ψέματα, υποστηρίζοντας εξίσου ηθικές και ανήθικες αποφάνσεις) είτε το αντίθετο (χωρίς καμιά δέσμευση σε οποιεσδήποτε αποφάσεις και αδιαφορία για τις συνέπειες). Δεδομένης της ηθικής, της ψευδοεπιστήμης και της γλωσσικής ανικανότητας αυτών των συστημάτων, δεν μπορούμε παρά να γελάσουμε ή να κλάψουμε με τη δημοτικότητά τους.
(Όποιος ενδιαφέρεται μπορεί να δει μια “απάντηση” στον σύνδεσμο:
https://scottaaronson.blog/?p=7094).