5 Tρομακτικα Σεναρια της Tεχνητης Nοημοσυνης
Είμαστε προετοιμασμένοι για τις απρόβλεπτες εξελίξεις της AI? Βυθιστείτε σε 5 εφιαλτικά σενάρια ΑΙ που πρέπει να μετριάσουμε πριν να είναι πολύ αργά.
LATEST POSTS
Ήταν μια ακόμη συνηθισμένη μέρα στη Σεούλ, μέχρι που έσπασε η σοκαριστική είδηση - ο Lee Sedol, ο κορυφαίος παίκτης Go στον κόσμο, υπέστη μια καταστροφική ήττα 4-1 από τα εικονικά χέρια του AlphaGo, ενός συστήματος τεχνητής νοημοσύνης που αναπτύχθηκε από το DeepMind της Google.
Αυτή η στιγμή-ορόσημο το 2016 απέδειξε στον κόσμο την εκπληκτική πρόοδο στις δυνατότητες της AI. Συστήματα που προηγουμένως μπορούσαν μόνο να διαχειρίζονται κοινότυπες εργασίες όπως η οργάνωση συναντήσεων, τώρα μπορούν να εκτελούν σύνθετη στρατηγική σκέψη καλύτερα από οποιονδήποτε άνθρωπο.
Ωστόσο, καθώς η AI γρήγορα ταιριάζει και ακόμα και ξεπερνά την ανθρώπινη νοημοσύνη σε εξειδικευμένους τομείς, οι ηθικές ανησυχίες γύρω από την κακή χρήση της επικρέμανται επίσης με αποκαλυπτικό τρόπο.
Το μέγεθος της αγοράς τεχνητής νοημοσύνης αναμένεται να αυξηθεί κατά 20 φορές έως το 2030, φτάνοντας σχεδόν τα $2 τρισεκατομμύρια.
Σε αυτό το άρθρο, θα εξερευνήσουμε 5 σενάρια που απεικονίζουν τη σκοτεινή πλευρά της ανεξέλεγκτης άνοδου της AI, εάν η ηθική και ο έλεγχος δεν προλάβουν την τεχνολογική καινοτομία. Αποκαλύπτοντας το κουτί της Πανδώρας που θα μπορούσε να ανοίξει, ελπίζουμε ότι οι ρυθμιστικές αρχές και η κοινότητα AI θα εργαστούν επειγόντως για να τα αντιμετωπίσουν.
Μαζική Παρακολούθηση
Φανταστείτε έναν κόσμο όπου κάθε σας κίνηση παρακολουθείται, οι προτιμήσεις σας προβλέπονται και οι σκέψεις σας ενδεχομένως επηρεάζονται – όλα μέσω του αόρατου χεριού της AI.
Αυτό το ανατριχιαστικό σενάριο δεν είναι πια ύλη δυστοπικής φαντασίας. Καθώς η AI προχωρά, οι δυνατότητές της στη συλλογή, ανάλυση και χειραγώγηση δεδομένων προκαλούν ανησυχίες για την πιθανή απώλεια της ατομικής ιδιωτικότητας και ελέγχου.
Με εκατομμύρια κάμερες και δισεκατομμύρια γραμμές κώδικα, η Κίνα κατασκευάζει ένα υψηλής τεχνολογίας αυταρχικό μέλλον. Το Πεκίνο αγκαλιάζει τεχνολογίες όπως η αναγνώριση προσώπου και η τεχνητή νοημοσύνη για να αναγνωρίσει και να παρακολουθήσει 1,4 δισεκατομμύρια ανθρώπους.
Θέλει να συγκεντρώσει ένα τεράστιο και πρωτόγνωρο εθνικό σύστημα επιτήρησης, με κρίσιμη βοήθεια από την ακμάζουσα τεχνολογική της βιομηχανία.
Η Κίνα έχει περίπου 200 εκατομμύρια κάμερες επιτήρησης — τέσσερις φορές περισσότερες από τις Ηνωμένες Πολιτείες.
Μία εταιρεία που ηγείται της συγχώνευσης της AI και της τεχνολογίας αναγνώρισης προσώπου είναι η Clearview AI. Η εταιρεία, η οποία χρησιμοποιεί λογισμικό αναγνώρισης προσώπου για να βοηθήσει τις ενόπλους δυνάμεις, διαθέτει μια συλλογή περισσότερων από 40 δισεκατομμύρια εικόνων και πρόσβαση σε περισσότερες από 1 δισεκατομμύριο κάμερες CCTV παγκοσμίως.
Είναι κρίσιμο να αναγνωριστεί ότι η AI έχει τη δυνατότητα να ωφελήσει διάφορους τομείς, συμπεριλαμβανομένων της ασφάλειας και των προσωποποιημένων υπηρεσιών. Ωστόσο, είναι ουσιαστικό να επιτευχθεί μια ισορροπία μεταξύ της τεχνολογικής προόδου και της ατομικής ιδιωτικότητας.
Τεχνολογία Όπλων AI
Φανταστείτε ένα πεδίο μάχης όπου οι στρατιώτες αντικαθίστανται από αυτόνομες μηχανές ικανές να λαμβάνουν αποφάσεις ζωής ή θανάτου σε χιλιοστά του δευτερολέπτου.
Αυτό δεν είναι μια σκηνή από μια ταινία επιστημονικής φαντασίας, είναι ένα πιθανό μέλλον που καθίσταται δυνατό από τις ταχύτατες προόδους στην AI.
Ίσως μία από τις πιο ανησυχητικές εφαρμογές της AI είναι στα αυτόνομα όπλα συστήματα. Τα drones και τα πυραύλοι θα μπορούσαν να εξοπλιστούν με αλγορίθμους AI για να αναζητούν και να εξαλείφουν στόχους βασιζόμενοι σε οπτική και επεξεργασία σημάτων - όλα αυτά χωρίς την ανθρώπινη παρέμβαση.
Πριν από μερικά χρόνια, ένας διακεκριμένος στοχαστικός οργανισμός, η Rand Corporation, δημοσίευσε μια μελέτη η οποία υποδείκνυε ότι η χρήση της AI σε στρατιωτικές εφαρμογές θα μπορούσε να οδηγήσει σε πυρηνικό πόλεμο έως το 2040.
Πρόσφατα, ερευνητές χρησιμοποίησαν AI, η οποία κανονικά χρησιμοποιείται για την αναζήτηση ωφέλιμων φαρμάκων, σε ένα είδος «λειτουργίας κακού παίκτη» για να δείξουν πόσο εύκολα θα μπορούσε να καταχραστεί σε μια διάσκεψη για τον έλεγχο βιολογικών όπλων.
Στο άρθρο που δημοσιεύτηκε από το Verge, οι ερευνητές δήλωσαν ότι χρειάστηκαν λιγότερο από 6 ώρες για την AI που αναπτύσσει φάρμακα, ώστε να εφεύρει 40.000 πιθανώς θανατηφόρες μόρια.
Η AI δημιούργησε δεκάδες χιλιάδες νέες ουσίες, μερικές από τις οποίες είναι παρόμοιες με το VX, τον πιο ισχυρό νευροτοξικό παράγοντα που έχει αναπτυχθεί ποτέ.
Η εξασφάλιση υπεύθυνης ανάπτυξης και η πρόληψη της όπλισης της AI απαιτεί συνεχή συνεργασία, σταθερές διεθνείς συμφωνίες και μια παγκόσμια δέσμευση για ηθικές σκέψεις στις προόδους της AI.
Fake News
Σε μια εποχή deepfakes και φθηνών εργαλείων επεξεργασίας πολυμέσων που τροφοδοτούνται από τις διαρρήξεις στην AI, η απειλή των ψευδών ειδήσεων και της παραπληροφόρησης φτάνει σε ένα νέο επίπεδο.
Τα Generative Adversarial Networks (GANs) μπορούν να συνθέσουν φωτορεαλιστικές εικόνες, βίντεο και ήχο αδιακρίτως από την πραγματικότητα.
Αυτό επιτρέπει σε κακόβουλους φορείς να παράγουν εύκολα ψεύτικο περιεχόμενο σε μεγάλη κλίμακα για να προωθήσουν εκστρατείες παραπληροφόρησης, προπαγάνδας ή να συκοφαντήσουν δημόσια πρόσωπα.
Το 2020, kυκλοφόρησε ένα deepfake βίντεο του Mark Zuckerberg να δίνει έναν απειλητικό λόγο σχετικά με τον έλεγχο μελλοντικών εκλογών έγινε viral στα κοινωνικά δίκτυα. Ενώ αυτό το παράδειγμα ήταν ακίνδυνο, φανταστείτε deepfakes παγκόσμιων ηγετών να δηλώνουν πόλεμο ή να προκαλούν πανικό στις χρηματοπιστωτικές αγορές.
Το 2023, ένα άρθρο που δημιουργήθηκε από AI αφηγήθηκε μια φανταστική ιστορία για τον ψυχίατρο του Benjamin Netanyahu, βρήκε μια έρευνα του NewsGuard, ισχυριζόμενο ότι είχε πεθάνει και είχε αφήσει πίσω ένα σημείωμα που υπονοούσε την εμπλοκή του Ισραηλινού πρωθυπουργού.
Ο ψυχίατρος φαίνεται να ήταν ψεύτικο, αλλά ο ισχυρισμός παρουσιάστηκε σε ένα Ιρανικό τηλεοπτικό πρόγραμμα, και επανακυκλοφόρησε σε ιστοτόπους μέσων ενημέρωσης στα Αραβικά, Αγγλικά και Ινδονησιακά, και διαδόθηκε από χρήστες στο TikTok, Reddit και Instagram.
Αν αφεθεί ανεξέλεγκτη, η προσβασιμότητα των ψεύτικων μέσων ενημέρωσης που τροφοδοτούνται από AI απειλεί να καταστρέψει την ίδια την έννοια της ψηφιακής αλήθειας και να ξαναορίσει τον κοινωνικό διάλογο σε μια εποχή μετά την αλήθεια.
Οι δημοκρατικοί θεσμοί θα μπορούσαν να υπονομευτούν από την παραπληροφόρηση που γίνεται viral και επηρεάζει εκλογές και κοινωνικές αναταραχές.
Αυτοματοποίηση εργασιών
Ενώ η AI υπόσχεται επαναστατικά οικονομικά οφέλη μέσω της αυξημένης παραγωγικότητας, μια επικείμενη απειλή εκτεταμένης αντικατάστασης θέσεων εργασίας επισκιάζει επίσης με μια σκοτεινή σύννεφη.
Η αυτοματοποίηση από την AI και τη ρομποτική θα μπορούσε να εξαλείψει εκατομμύρια θέσεις εργασίας σε διάφορους κλάδους από τις μεταφορές και την κατασκευή μέχρι την εξυπηρέτηση πελατών και την εισαγωγή δεδομένων.
Σύμφωνα με μια διαβόητη μελέτη του Οξφόρδη το 2013, το 47% των τρεχουσών θέσεων εργασίας στις ΗΠΑ διατρέχουν υψηλό κίνδυνο αυτοματοποίησης τις επόμενες δεκαετίες.
Μόνο η μεταφορά εμπορευμάτων μεγάλων αποστάσεων απασχολεί πάνω από 3 εκατομμύρια οδηγούς που αντιμετωπίζουν μια υπαρξιακή απειλή από τα αυτοκίνητα αυτόνομης οδήγησης που καθοδηγούνται από συστήματα αντίληψης και πλοήγησης AI.
Εκατομμύρια ακόμη ταμίες, εργαζόμενοι σε fast food, τηλεφωνητές και γραμματειακοί υπάλληλοι αντιμετωπίζουν την τελική παρωχημένη κατάσταση καθώς οι αλγόριθμοι AI κατακτούν τις ρουτινιάρικες εργασίες.
Κατά τη διάρκεια της πανδημίας COVID-19, οι εταιρείες επιτάχυναν την υιοθέτηση της αυτοματοποίησης και της AI για να μειώσουν τα κόστη και να αυξήσουν την ανθεκτικότητα, συμβάλλοντας σε ένα "τσουνάμι απώλειας θέσεων εργασίας". Η McKinsey εκτιμά ότι έως το 2030, έως και 800 εκατομμύρια παγκόσμιοι εργαζόμενοι θα μπορούσαν να αναγκαστούν να βρουν νέα απασχόληση.
Η κλίμακα και το μέγεθος του γενικού δυναμικού της AI να αυτοματοποιήσει τόσες πολλές ειδικευμένες εργασίες ταυτόχρονα είναι ιστορικά πρωτοφανές.
Καθώς οι δυνατότητες της AI επεκτείνονται γρήγορα, οι κυβερνήσεις έχουν επείγουσα ανάγκη για βιώσιμες πολιτικές επανεκπαίδευσης εργασίας, δικτύων ασφάλειας για την ανεργία και κινήτρων για ρόλους που συμπληρώνουν τον άνθρωπο, προκειμένου να προληφθεί η κοινωνική αναταραχή από τη μαζική τεχνολογική ανεργία.
AGI
Ενώ τα προηγούμενα σενάρια περιγράφουν τοπικούς κινδύνους εξειδικευμένων εφαρμογών AI, η προοπτική της τεχνητής γενικής νοημοσύνης (AGI) - ενός συστήματος AI με νοημοσύνη ανθρώπινου επιπέδου σε όλους τους γνωστικούς τομείς - προκαλεί υπαρξιακούς φόβους.
Ειδικοί όπως ο Stuart Russell και φιλόσοφοι όπως ο Nick Bostrom προειδοποιούν ότι μια υπερνοή AGI θα μπορούσε γρήγορα να γίνει δύσκολο να ελεγχθεί ή να περιοριστεί.
Κάποιοι υποθέτουν μια "έκρηξη νοημοσύνης" όπου μια υπερ AGI βελτιώνει τον εαυτό της γρήγορα σε έναν εκθετικό θετικό φαύλο κύκλο, κινούμενη προς μια κοσμική παντοδυναμία και βελτιστοποίηση - με άγνωστες συνέπειες για την ανθρώπινη επιβίωση.
Στα πιο άκρα αλλά σοβαρά σενάρια από φωτεινά πνεύματα όπως ο φιλόσοφος του Οξφόρδη Nick Bostrom, μια προηγμένη υπερνοημοσύνη θα μπορούσε να "πλακώσει το σύμπαν" με την επιλεγμένη κατάσταση υπολογισμού της ή διαμόρφωση ύλης/ενέργειας συντονισμένη με την επίτευξη των ορισμένων στόχων της.
Ενώ η AGI παραμένει ακόμα κερδοσκοπική για τώρα, ειδικοί όπως ο Stephen Hawking προτείνουν ότι η επίδρασή της θα μπορούσε να είναι το "χειρότερο λάθος που έχει κάνει ποτέ" η ανθρωπότητα.
Πηγές:
Statista. (n.d.). Size of the artificial intelligence (AI) market worldwide from 2018 to 2030. Retrieved from https://www.statista.com/statistics/1365145/artificial-intelligence-market-size/
Mozur, P. (2018, July 8). Inside China’s Dystopian Dreams: A.I., Shame and Lots of Cameras. The New York Times. Retrieved from https://www.nytimes.com/2018/07/08/business/china-surveillance-technology.html
Kharpal, A. (2018, August 1). Five of the scariest predictions about artificial intelligence. CNBC. Retrieved from https://www.cnbc.com/2018/08/01/five-of-the-scariest-predictions-for-ai.html
Vincent, J. (2022, March 17). AI could be used to invent new chemical weapons, warns report. The Verge. Retrieved from https://www.theverge.com/2022/3/17/22983197/ai-new-possible-chemical-weapons-generative-models-vx
O'Sullivan, D. (2019, June 11). A deepfake video of Mark Zuckerberg presents a new challenge for Facebook. CNN. Retrieved from https://edition.cnn.com/2019/06/11/tech/zuckerberg-deepfake/index.html
Harwell, D. (2023, December 17). AI-generated fake news could be the next big misinformation threat. The Washington Post. Retrieved from https://www.washingtonpost.com/technology/2023/12/17/ai-fake-news-misinformation/#