Μπορούμε να εμπιστευτούμε την τεχνητή νοημοσύνη;
- Στέφανος Αργυρόπουλος ΕΠΙΣΤΗΜΗ & ΤΕΧΝΟΛΟΓΙΑ

Η τεχνητή νοημοσύνη έχει καθιερωθεί ως μία από τις πιο επαναστατικές τεχνολογίες της εποχής μας. Δεν πρόκειται για μια απλή καινοτομία, αλλά για μια δύναμη που αλλάζει θεμελιωδώς τον τρόπο που ζούμε, εργαζόμαστε και σκεφτόμαστε. Από τις εφαρμογές που έχουμε στο κινητό μας μέχρι την ιατρική ακριβείας και την ανάλυση πολύπλοκων οικονομικών δεδομένων, η τεχνητή νοημοσύνη φέρνει στο προσκήνιο δυνατότητες που πριν από λίγα χρόνια έμοιαζαν επιστημονική φαντασία.
Ωστόσο, όσο πιο βαθιά εισχωρεί στην καθημερινότητά μας, τόσο πιο έντονα αναδύεται το ερώτημα: πώς μπορούμε να διασφαλίσουμε ότι θα υπηρετεί τον άνθρωπο και όχι το αντίστροφο;
Η τεχνητή νοημοσύνη δίπλα μας
Αρκεί να σκεφτούμε την καθημερινότητα: οι ψηφιακοί βοηθοί στα τηλέφωνα, όπως η Siri και η Alexa, λειτουργούν ως «προσωπικοί γραμματείς» που απαντούν σε ερωτήσεις και οργανώνουν προγράμματα. Οι αλγόριθμοι του Netflix και του YouTube μαθαίνουν από τις προτιμήσεις μας και μας προτείνουν σειρές και βίντεο. Οι τράπεζες χρησιμοποιούν λογισμικό τεχνητής νοημοσύνης για να εντοπίζουν ύποπτες συναλλαγές και να αποτρέπουν την απάτη.
Όμως, η εφαρμογή της δεν είναι πάντα ανώδυνη. Ένα ηχηρό παράδειγμα ήρθε από την Αυστραλία: η Commonwealth Bank αντικατέστησε εκατοντάδες υπαλλήλους με συστήματα τεχνητής νοημοσύνης, θεωρώντας ότι η εξυπηρέτηση πελατών θα γινόταν πιο γρήγορη και οικονομική. Το αποτέλεσμα ήταν απογοητευτικό: οι πελάτες δυσκολεύονταν να εξυπηρετηθούν, τα συστήματα έκαναν λάθη, και τελικά η τράπεζα χρειάστηκε να επαναφέρει πολλές θέσεις εργασίας. Η ιστορία αυτή δείχνει ότι η τεχνολογία, αν δεν εφαρμοστεί με σύνεση, μπορεί να οδηγήσει σε αδιέξοδο αντί για πρόοδο.
Τα θετικά σημεία
Η αισιόδοξη πλευρά είναι ότι η τεχνητή νοημοσύνη μπορεί να αποδειχθεί πραγματικός σύμμαχος της κοινωνίας.
Σε πρόσφατες μελέτες σε αμερικανικά πανεπιστήμια διαπιστώθηκε ότι προγραμματιστές που χρησιμοποιούν εργαλεία τεχνητής νοημοσύνης ολοκληρώνουν την εργασία τους έως και 30% ταχύτερα. Δεν πρόκειται μόνο για αύξηση της ταχύτητας, αλλά και για μείωση λαθών, αφού το σύστημα λειτουργεί σαν δεύτερο «μάτι» που εντοπίζει κενά στον κώδικα. Αυτό σημαίνει ότι εργαζόμενοι σε πολλούς τομείς μπορούν να γίνουν πιο δημιουργικοί, καθώς η μηχανή αναλαμβάνει τις μηχανικές εργασίες.
Η Ευρωπαϊκή Κεντρική Τράπεζα έχει πειραματιστεί με τη χρήση τεχνητής νοημοσύνης για να αναλύει τεράστιους όγκους δεδομένων από τις αγορές. Οι αλγόριθμοι εντόπισαν μοτίβα που προηγουμένως θα χρειάζονταν μήνες για να αναγνωριστούν από αναλυτές. Έτσι, μπορεί να προληφθεί μια πιθανή κρίση προτού πάρει διαστάσεις. Είναι σαν να έχουμε ένα «ραντάρ» που βλέπει τις οικονομικές καταιγίδες προτού φτάσουν.
Σε χώρες της Αφρικής, όπου οι γιατροί είναι ελάχιστοι, χρησιμοποιούνται chatbots που δίνουν βασικές ιατρικές οδηγίες σε ασθενείς. Αντίστοιχα, στην εκπαίδευση, εφαρμογές προσφέρουν δωρεάν μαθήματα σε παιδιά που δεν έχουν πρόσβαση σε σχολεία. Έτσι, η τεχνητή νοημοσύνη γίνεται εργαλείο ισότητας, δίνοντας πρόσβαση σε αγαθά που για πολλούς θεωρούνταν πολυτέλεια.
Οι ίδιες τεχνολογίες συμβάλλουν στη μείωση της κατανάλωσης ενέργειας. Σε αρκετές πόλεις δοκιμάζονται συστήματα που ρυθμίζουν τον φωτισμό και την κυκλοφορία ανάλογα με την κίνηση, μειώνοντας την κατανάλωση ρεύματος και τα καυσαέρια. Επίσης, προγράμματα ανάλυσης δορυφορικών εικόνων προβλέπουν δασικές πυρκαγιές, δίνοντας χρόνο για πρόληψη.
Οι σκιές που δεν μπορούμε να αγνοήσουμε
Η άλλη όψη του νομίσματος είναι πιο ανησυχητική, καθώς η τεχνητή νοημοσύνη, πέρα από τα οφέλη της, φέρνει μαζί της και σοβαρούς κινδύνους. Η απώλεια θέσεων εργασίας, η αθέατη εκμετάλλευση εργαζομένων, οι μεροληψίες στους αλγορίθμους, το περιβαλλοντικό της αποτύπωμα και η εξάπλωση παραπληροφόρησης δείχνουν ότι δεν πρόκειται για μια ουδέτερη τεχνολογία. Αν δεν τεθούν όρια και κανόνες, η δύναμή της μπορεί να αποδειχθεί πιο επιβλαβής απ’ ό,τι ωφέλιμη.
Έρευνες στις Ηνωμένες Πολιτείες έδειξαν ότι επτά στους δέκα πολίτες φοβούνται πως η τεχνητή νοημοσύνη θα φέρει μαζική ανεργία. Η αλήθεια είναι πιο σύνθετη: πολλές δουλειές πιθανόν να αλλάξουν μορφή, ενώ θα χρειαστούν νέες δεξιότητες. Για παράδειγμα, ένας λογιστής δεν θα αντικατασταθεί πλήρως, αλλά θα χρειαστεί να μάθει να συνεργάζεται με εργαλεία ανάλυσης δεδομένων.
Πίσω από τους αλγόριθμους βρίσκονται χιλιάδες εργαζόμενοι σε χώρες όπως η Κένυα και η Ινδία, οι οποίοι πληρώνονται μερικά σεντς για να επισημαίνουν εικόνες ή να φιλτράρουν ακατάλληλο περιεχόμενο. Χωρίς αυτούς, τα μεγάλα μοντέλα δεν θα μπορούσαν να λειτουργήσουν. Η αθέατη αυτή εργασία εγείρει ερωτήματα για εκμετάλλευση και κοινωνική αδικία.
Η τεχνητή νοημοσύνη τρέφεται από δεδομένα. Συχνά όμως δεν είναι σαφές αν αυτά τα δεδομένα έχουν ληφθεί με συγκατάθεση. Επιπλέον, τα λεγόμενα «hallucinations», απαντήσεις που παρουσιάζονται ως αληθινές ενώ δεν είναι, μπορούν να παραπλανήσουν τόσο απλούς χρήστες όσο και επιχειρήσεις. Νομικοί προειδοποιούν ότι μια εταιρεία που βασίζεται αποκλειστικά σε αυτά τα συστήματα εκτίθεται σε τεράστιους κινδύνους.
Αν τα δεδομένα εκπαίδευσης είναι μεροληπτικά, τότε και η Τεχνητή Νοημοσύνη θα αναπαράγει αυτές τις προκαταλήψεις. Σε δοκιμές στον χώρο της ψυχικής υγείας, τα συστήματα είχαν χαμηλότερη ακρίβεια σε μειονότητες, επειδή δεν «καταλάβαιναν» γλωσσικούς ιδιωματισμούς. Αυτό δείχνει ότι χωρίς προσεκτικό σχεδιασμό, η τεχνολογία μπορεί να ενισχύσει ανισότητες αντί να τις μειώσει.
Η εκπαίδευση ενός μεγάλου μοντέλου τεχνητής νοημοσύνης απαιτεί τεράστια ποσά ηλεκτρικής ενέργειας. Ερευνητές υπολογίζουν ότι μέχρι το 2030 η βιομηχανία μπορεί να παράγει εκατομμύρια τόνους ηλεκτρονικών αποβλήτων. Έτσι, μια τεχνολογία που συχνά παρουσιάζεται ως «καθαρή» μπορεί να αποδειχθεί περιβαλλοντικά επιβαρυντική.
Ήδη έχουμε δει παραποιημένα βίντεο πολιτικών προσώπων να κυκλοφορούν στο διαδίκτυο. Τα λεγόμενα deepfakes είναι τόσο πειστικά, που καθίσταται δύσκολο να ξεχωρίσει κανείς την αλήθεια από την ψευδαίσθηση. Αυτό εγκυμονεί σοβαρούς κινδύνους για τη δημοκρατία, αφού μπορεί να χειραγωγηθεί η κοινή γνώμη.
Πέρα από τα πρακτικά προβλήματα, υπάρχει και μια βαθύτερη ανησυχία: αν κάποτε η τεχνητή νοημοσύνη καταφέρει να αυτονομηθεί και μπορεί να αυτοβελτιώνεται, υπάρχει ο φόβος να ξεφύγει από τον ανθρώπινο έλεγχο. Αν και πρόκειται για μακρινό σενάριο, αρκετοί ειδικοί τονίζουν ότι δεν πρέπει να το αγνοούμε.
Η ανάγκη για κανόνες και εκπαίδευση
Το κρίσιμο ερώτημα δεν είναι αν θα χρησιμοποιήσουμε την τεχνητή νοημοσύνη, αυτό ήδη συμβαίνει. Το ζήτημα είναι πώς θα τη χρησιμοποιήσουμε.
- Εκπαίδευση πολιτών και εργαζομένων: Η κατανόηση της λειτουργίας της τεχνητής νοημοσύνης πρέπει να γίνει βασική δεξιότητα, όπως η ανάγνωση και η γραφή στον 20ό αιώνα. Μόνο έτσι θα μπορούμε να συμμετέχουμε ισότιμα στον κόσμο που διαμορφώνεται.
- Δικαιοσύνη και διαφάνεια: Ειδικοί όπως η Kay Firth-Butterfield επισημαίνουν ότι πρέπει να απαιτήσουμε αλγόριθμους δίκαιους και διαφανείς, ώστε να μην αποκλείονται οι πιο αδύναμοι.
- Διεθνής συνεργασία: Οργανισμοί όπως η UNESCO ήδη έχουν εκδώσει κατευθυντήριες γραμμές για την ηθική χρήση της τεχνητής νοημοσύνης. Μια διεθνής συμφωνία, αντίστοιχη με εκείνες για την κλιματική αλλαγή, ίσως αποδειχθεί απαραίτητη.
Πολιτισμός και τεχνητή νοημοσύνη
Η τεχνολογία αυτή δεν περιορίζεται μόνο σε οικονομία και επιστήμη. Ήδη επηρεάζει την τέχνη, τη μουσική, τη λογοτεχνία. Αλγόριθμοι δημιουργούν πίνακες ζωγραφικής ή συνθέτουν μουσικά κομμάτια. Η μεγάλη πρόκληση είναι να βρούμε πώς θα συνυπάρξει με τη δημιουργικότητα του ανθρώπου χωρίς να την υποκαταστήσει.
Η τεχνητή νοημοσύνη είναι το νέο εργαλείο στα χέρια μας. Το αν θα το χρησιμοποιήσουμε για να χτίσουμε έναν κόσμο πιο δίκαιο και δημιουργικό ή για να εντείνουμε φόβους και ανισότητες, είναι υπόθεση συλλογική. Το μέλλον δεν έχει γραφτεί ακόμη. Η τεχνητή νοημοσύνη είναι το μολύβι. Το αν θα σχεδιάσουμε έναν κόσμο ελπίδας ή απειλής, εξαρτάται από εμάς.


