ChatGPT Ηθικά ζητήματα

Μια βαθιά διερεύνηση των επιπτώσεων των γεννητικών μοντέλων τεχνητής νοημοσύνης στις θέσεις εργασίας, την προστασία της ιδιωτικής ζωής και τη διάδοση παραπληροφόρησης.

Alessandro Rossi S

2/13/20241 λεπτά ανάγνωσης

Κατά τη διάρκεια του τελευταίου έτους, τα μοντέλα τεχνητής νοημοσύνης (AI) όπως το ChatGPT εισέβαλαν στη σκηνή της τεχνολογίας, εκπλήσσοντας τους ανθρώπους. Δημιουργημένο από την εταιρεία έρευνας OpenAi, είναι ένα LLM - ενός συστήματος τεχνητής νοημοσύνης εκπαιδευμένου σε τεράστια σύνολα δεδομένων κειμένου για να μάθει γλωσσικά μοτίβα και σχέσεις.

Η κυκλοφορία του στα τέλη του 2022 συγκεκριμένα πυροδότησε μεγάλη συζήτηση και διαμάχη σχετικά με το μέλλον των εργαλείων AI. Μόλις λίγες εβδομάδες μετά την κυκλοφορία του, πάνω από ένα εκατομμύριο χρήστες εγγραφηκαν για να δοκιμάσουν αυτόν τον έξυπνο συνομιλητή. Οι δυνατότητές του κατέκτησαν τους τίτλους των ειδήσεων, καθώς το ChatGPT έδειξε ότι μπορούσε να συζητήσει θέματα ηθικής, να εξηγήσει επιστημονικές έννοιες, να δημιουργήσει δοκίμια, κώδικα υπολογιστή και ακόμη και ποίηση με εντυπωσιακή δεξιότητα.

Ωστόσο, παρά τον ενθουσιασμό για τα συστήματα τεχνητής νοημοσύνης όπως το ChatGPT-4, έχουν επίσης προκύψει σημαντικά ερωτήματα ηθικής σχετικά με τις κοινωνικές επιπτώσεις και τους κινδύνους. Ένα βασικό ερώτημα που υποκρύπτει μεγάλο μέρος του πρόσφατου διαλόγου είναι:

καθώς η τεχνητή νοημοσύνη γίνεται καλύτερη στην επικοινωνία και τη δημιουργία, πώς διαμορφώνεται το μέλλον όσον αφορά στον τρόπο με τον οποίο αυτή η τεχνολογία θα πρέπει ιδανικά να κατευθυνθεί, να ρυθμιστεί και να χρησιμοποιηθεί για καλό αντί για κακό?

Αυτό το άρθρο θα εξετάσει σε βάθος τα βασικά ηθικά ζητήματα και τις σκέψεις καθώς η γεννητική τεχνητή νοημοσύνη συνεχίζει να προοδεύει με ταχύτατους ρυθμούς. Λαμβάνοντας υπόψη τη μεταμορφωτική δύναμη της τεχνολογίας, η συζήτηση για τις ανθρώπινες επιπτώσεις της μέσα από ένα ηθικό πρίσμα γίνεται όλο και πιο σημαντική με κάθε σημαντικό επίτευγμα.

Ηθικές επιπτώσεις της AI

Σημαντικές ηθικές ανησυχίες σχετικά με τη χρήση του Ai:

  • Αλήθεια και Διαστρέβωση Πληροφοριών:

    Ένα σημαντικό πεδίο ηθικής ανησυχίας είναι η δυνατότητα μεγάλων γλωσσικών μοντέλων όπως το ChatGPT να διαδώσουν ψεύτικες πληροφορίες εάν χρησιμοποιηθούν ανεύθυνα. Ενώ μπορούν να διατυπώσουν σύνθετες έννοιες με ευκολία, η αλήθεια των αποτελεσμάτων τους δεν μπορεί να διασφαλιστεί. Αυτά τα συστήματα μαθαίνουν μοτίβα μόνο από τα δεδομένα εκπαίδευσης τους, χωρίς να διαθέτουν μια έμφυτη έννοια ακρίβειας ή αντικειμενικών γεγονότων.

  • Προκατάληψη και Δικαιοσύνη:

    Εκτός από την αλήθεια, η μείωση των ιστορικών προκαταλήψεων που είναι ενσωματωμένες στα αλγοριθμικά συστήματα τεχνητής νοημοσύνης αποτελεί ηθικό επιτακτικό. Λόγω του τρόπου ανάπτυξης των μοντέλων μηχανικής μάθησης μέσω της εύρεσης μοτίβων στα δεδομένα, διατρέχουν τον κίνδυνο να διαιωνίσουν ζητήματα όπως προκαταλήψεις φύλου, φυλής ή ιδεολογίας που υπάρχουν ψηφιακά

  • Αυτοματοποίηση και θέσεις εργασίας:

    Υπάρχουν ευρύτερες ανησυχίες σχετικά με την αυτοματοποίηση ορισμένων κατηγοριών θέσεων εργασίας που περιλαμβάνουν επικοινωνία, δημιουργία περιεχομένου και ανάλυση από εκπροσώπους τεχνητής νοημοσύνης με δυνατότητες συνομιλίας. Οι δυνατότητες λογισμικού σε τομείς όπως οι εξατομικευμένες καμπάνιες μάρκετινγκ ή η δημιουργία οικονομικών εκθέσεων, ενέχουν κινδύνους εκτοπισμού εργατικού δυναμικού εάν μοντέλα όπως το ChatGPT εκπληρώνουν πάρα πολλές βασικές ανθρώπινες εργασίες.

  • Ιδιωτικότητα:

    Κατά τη δημιουργία μεγάλων μοντέλων AI, η αξιοποίηση τεράστιων συνόλων δεδομένων με δημιουργημένο από άνθρωπο περιεχόμενο είναι απαραίτητη για την ακρίβεια. Αυτό οδηγεί σε φυσικά ερωτήματα σχετικά με τη χρήση προσωπικών δεδομένων, το απόρρητο και τη συγκατάθεση, ειδικά καθώς αναδύονται τεχνικές όπως η «ομοσπονδιακή μάθηση» που αφήνουν τα δεδομένα διανεμημένα σε συσκευές.

Συνοψίζοντας, λοιπόν, σε σχέση με την αλήθεια και την παραπληροφόρηση, τη μεροληψία, τις θέσεις εργασίας και την ιδιωτικότητα, η εξέταση των ηθικών διαστάσεων του τρόπου με τον οποίο τα μοντέλα generative-AI διαμορφώνουν τις επικοινωνίες, την πρόσβαση και τις ευκαιρίες είναι το κλειδί για τη διασφάλιση της υπεύθυνης ανάπτυξης.

generative ai Greece 2030, text white on blue and black background
generative ai Greece 2030, text white on blue and black background

Ελληνική Κυβέρνηση: Ai 2030

Η ελληνική κυβέρνηση δημοσίευσε πρόσφατα την πρώτη της εμπειρική ερευνητική προσέγγιση στρατηγικής πρόβλεψης για τη χρήση της Γενετικής Τεχνητής Νοημοσύνης (Gen AI) στην Ελλάδα. Η μελέτη, που εκπονήθηκε από το Εθνικό Κέντρο Κοινωνικών Ερευνών (ΕΚΚΕ) και το ΕΚΕΦΕ "Δημόκριτος", με την υποστήριξη της Ειδικής Γραμματείας Προοπτικής, παρουσιάζει τάσεις, ευκαιρίες, προκλήσεις, αβεβαιότητες και πιθανές επιλογές που θα διαμορφώσουν το μέλλον του οικοσυστήματος της Γενετικής Τεχνητής Νοημοσύνης στην Ελλάδα. Παρέχει ένα πλαίσιο προτεινόμενων στρατηγικών πρωτοβουλιών και συστάσεων πολιτικής.

Κύριος στόχος του είναι να αντλήσει από τη συλλογική γνώση και τις αντιλήψεις πρόβλεψης ενός δείγματος Ελλήνων εμπειρογνωμόνων/ειδικών σχετικά με τον αντίκτυπο του εγχώριου οικοσυστήματος Gen AI, στο χρονικό πλαίσιο του 2030.

Η παρούσα έρευνα παρουσιάζει τέσσερα σενάρια πιθανών εναλλακτικών μελλοντικών εικόνων της Gen AI στην Ελλάδα έως το 2030.

  1. Η πρώτη ονομάζεται "τεχνο-κοινωνική επιτάχυνση", όπου ο κόσμος περιγράφεται ως προσαρμόσιμος και απαλλαγμένος από τεχνοφοβικές αγκυλώσεις, ενώ η βιωσιμότητα και η αξία του οικοσυστήματος της Gen AI βρίσκονται σε υψηλό επίπεδο και συνοδεύονται από ένα αρκετά ανθεκτικό φιλελεύθερο πολιτικό σύστημα.

  2. Στο δεύτερο σενάριο, ο "τεχνολογικός νάνος", η ανοικτή οικονομία και ένα σύνολο ευνοϊκών πολιτικών προθέσεων κυριαρχούν, αλλά το οικοσύστημα GEN AI χάνει τη δυναμική του και δεν αποτελεί προτεραιότητα λόγω υπερβολικών κανονισμών και αυστηρών γραφειοκρατικών κανόνων.

  1. Το τρίτο σενάριο περιγράφεται με τον όρο "τεχνοκοινωνική ταλαιπωρία". Αντιπροσωπεύει ένα υποβαθμισμένο ή υποανάπτυκτο οικοσύστημα Γενικής Τεχνητής Νοημοσύνης σε έναν κλειστό και τεχνοφοβικό κόσμο, παράλληλα με μια σημαντική έλλειψη ηθικών και ρυθμιστικών πλαισίων, δημόσιων πολιτικών και θεσμικών παρεμβάσεων.

  2. Το τέταρτο σενάριο απεικονίζει έναν "τεχνο-γίγαντα" με αδύναμα, φτωχά πόδια και αντιπροσωπεύει ένα οικοσύστημα Γενικής Τεχνητής Νοημοσύνης που αντανακλά την παγκόσμια τεχνολογική έκρηξη, αλλά μέσα σε ένα κοινωνικο-πολιτιστικό και πολιτικό περιβάλλον που αδυνατεί να μετατρέψει την ταχύτητα σε προσαρμογή, να ενσωματώσει τις σύγχρονες τεχνολογικές εξελίξεις και να αξιοποιήσει τις δυνατότητες και τις ευκαιρίες που προσφέρουν.

Η παγκόσμια γεωπολιτική και γεωοικονομική τάξη γίνεται όλο και πιο ασταθής, πολύπλοκη και αβέβαιη. Η γενετική τεχνητή νοημοσύνη (γενική ΤΝ) φαίνεται να ενισχύει αυτά τα συστημικά χαρακτηριστικά, υπογραμμίζοντας την ανάγκη για "εκθετικό" και προσανατολισμένο στο μέλλον τρόπο σκέψης. Δεν μπορούμε να είμαστε σίγουροι για το τι επιφυλάσσει το μέλλον, ούτε μπορούμε να αποφύγουμε τη συνεχή αναστάτωση σε μια εποχή μόνιμης κρίσης. Ωστόσο, εναπόκειται σε εμάς να αξιοποιήσουμε αυτή τη γενικευμένη αβεβαιότητα/πολυπλοκότητα, να θέσουμε μακροπρόθεσμους στόχους, να προσαρμόσουμε τους θεσμούς και τη νοοτροπία μας, να είμαστε επαρκώς προετοιμασμένοι και να εργαστούμε για το πιο ευνοϊκό σενάριο

Ηθικά ζητήματα για Συγκεκριμένους Κλάδους

Έτσι, στους περισσότερους κλάδους, τα θέματα σχετικά με την αμεροληψία, την απόδοση και την υποστήριξη των ατόμων που επηρεάζονται αναδεικνύονται ως σταθερά σημεία ηθικής εξέτασης όσον αφορά τα ισχυρά εργαλεία δημιουργίας τεχνητής νοημοσύνης. Η συνεχής επανεξέταση των εξωτερικοτήτων και η έμφαση στην υπεύθυνη εφαρμογή θα είναι ζωτικής σημασίας καθώς η τεχνολογική ικανότητα συνεχίζει να αυξάνεται εκθετικά.

  • Εκπαίδευση:

    Καθώς τα συστήματα τεχνητής νοημοσύνης εξελίσσονται στην παραγωγή γραπτού περιεχομένου, προκύπτουν σημαντικά ηθικά ερωτήματα στην ακαδημαϊκή ακεραιότητα και την λογοκλοπή. Η πρόσβαση σε εργαλεία όπως το ChatGPT επιτρέπει στους μαθητές να παράγουν εύκολα ολόκληρες διατριβές ή εργασίες με μικρή προσπάθεια, θέτοντας ζητήματα σχετικά με τη σωστή αναφορά και την αυτοκατευθυνόμενη μάθηση.

  • Μέσα Ενημέρωσης και ψυχαγωγία:

    Για κλάδους όπως τα μέσα ενημέρωσης και η ψυχαγωγία, που διαμορφώνουν κοινωνικά αφηγήματα, υπάρχουν ηθικοί κίνδυνοι για τη διαιώνιση στερεοτύπων ή τη διασπορά παραπληροφόρησης ακούσια με τα μοντέλα παραγωγής τεχνητής νοημοσύνης. Λόγω της εκπαίδευσης σε μεγάλα τμήματα online δεδομένων, τα συστήματα μπορούν να μάθουν να μιμούνται επιβλαβείς προκαταλήψεις που περιθωριοποιούν ομάδες στα γραπτά τους.

  • Επιχειρήσεις:

    Ο επιχειρηματικός τομέας παλεύει πιο φανερά με τα ηθικά ερωτήματα της τεχνητής νοημοσύνης σχετικά με τον αυτοματισμό θέσεων εργασίας και τις επιπτώσεις στο εργατικό δυναμικό. Το πιο σημαντικό είναι η διαχείριση των μεταβάσεων με ηθικό τρόπο - ο εντοπισμός των λειτουργιών που διατρέχουν τον μεγαλύτερο κίνδυνο αντικατάστασης μέσω μοντέλων όπως το ChatGPT και η παροχή άφθονων ευκαιριών επανεκπαίδευσης σε αναδυόμενους ρόλους.

Συστάσεις για την Ηθική Ai

Καθώς τα μοντέλα παραγωγής τεχνητής νοημοσύνης γίνονται όλο και πιο εξελιγμένα, η δημιουργία προστατευτικών μέτρων για να διασφαλιστεί η ηθική ανάπτυξη και εφαρμογή τους καθίσταται επιτακτική. Από τις αυξημένες επενδύσεις στην έρευνα μέχρι την δημόσια εκπαίδευση και την αυτορύθμιση του κλάδου, οι προληπτικές προσπάθειες να ευθυγραμμιστούν οι εξελίξεις της τεχνητής νοημοσύνης με τα ανθρώπινα συμφέροντα μπορούν να συμβάλλουν στην μεγιστοποίηση των οφελών, ενώ παράλληλα θα αντιμετωπίζονται οι νέοι κίνδυνοι που προκύπτουν.

  1. Μεγαλύτερες Επενδύσεις στην Έρευνα Ηθικής της Τεχνητής Νοημοσύνης:

    Με την επιτάχυνση των ερευνητικών και ανταγωνιστικών προσπαθειών του ιδιωτικού τομέα που αυξάνουν τις δυνατότητες των συστημάτων τεχνητής νοημοσύνης, απαιτούνται εξίσου επείγοντα μέτρα γύρω από τη διακυβέρνηση. Κυβερνήσεις, ακαδημαϊκοί και θεσμικοί παγκοσμίως οφείλουν να επενδύσουν σημαντικά στην εφαρμοσμένη έρευνα ηθικής και τη δημιουργία προτύπων για αναδυόμενες τεχνολογίες όπως τα εργαλεία γραφής τεχνητής νοημοσύνης. Η εξέταση των κοινωνικών επιπτώσεων στις θέσεις εργασίας, την εκπαίδευση, το απόρρητο και άλλα επιτρέπει την ανάπτυξη πολιτικών που μεγιστοποιούν τα οφέλη και ελαχιστοποιούν τα μειονεκτήματα.

  1. Ανάπτυξη Κανόνων και Αυτορρύθμισης:

    Οι πρωτοβουλίες του κλάδου γύρω από τους ηθικούς κανόνες και την αυτορρύθμιση παίζουν επίσης καθοριστικό ρόλο στην προώθηση της υπευθυνότητας της τεχνητής νοημοσύνης. Ομάδες όπως το AI Village και οι συνεργασίες μεταξύ υποστηρικτών της κοινωνίας των πολιτών και τεχνολογικών εταιρειών θα έχουν σημαντικό αντίκτυπο στον καθορισμό των βέλτιστων πρακτικών - είτε πρόκειται για διαφάνεια, έλεγχο προκαταλήψεσης ή εσωτερικές αξιολογήσεις πριν από την κυκλοφορία προϊόντων. Προηγούμενα παραδείγματα όπως ο ανοιχτός έλεγχος αλγορίθμων δίνουν υποσχέσεις και για την παραγωγική τεχνητή νοημοσύνη, επιτρέποντας την εποπτεία μέσω crowd-sourcing.

  1. Δημόσια Εκπαίδευση για την Τεχνητή Νοημοσύνη:

    Τέλος, η ραγδαία αύξηση της δημόσιας κατανόησης της τεχνητής νοημοσύνης - τόσο των ικανοτήτων όσο και των περιορισμών της - αποτελεί θεμέλιο για ένα ηθικό μέλλον. Λανθασμένες αντιλήψεις γύρω από το τι μπορούν να πετύχουν τα τρέχοντα συστήματα ενέχουν τον κίνδυνο αντιδράσεων όπως η υπερβολική εξάρτηση ή η πρόωρη απόρριψη λόγω απεικονίσεων της γενικής τεχνητής νοημοσύνης στην επιστημονική φαντασία. Η εξήγηση μέσω αξιόπιστων καναλιών του τρόπου με τον οποίο λειτουργούν τεχνολογίες όπως το ChatGPT, με αποχρώσεις σχετικά με τα δυνατά τους σημεία, όπως η εξατομίκευση, και τις αδυναμίες τους όσον αφορά ισχυρισμούς αλήθειας ή συναισθηματική νοημοσύνη, χτίζει κατανόηση για ασφαλή υιοθέτηση.

Συνολικά, η προληπτική συνεργασία μεταξύ των ενδιαφερομένων μερών στην έρευνα, τη διακυβέρνηση και την εκπαίδευση είναι απαραίτητη για την καταλυτική ηθική εξέλιξη που θα συμβαδίζει με την εκθετική ανάπτυξη της τεχνητής νοημοσύνης.

An image showing an Ai robot, considering the different ethical implications of artificial intellige
An image showing an Ai robot, considering the different ethical implications of artificial intellige

FAQs

  1. Πώς να Χρησιμοποιήσετε το ChatGPT Υπεύθυνα?

    Όταν δημιουργείτε περιεχόμενο με το ChatGPT σε ακαδημαϊκό ή επαγγελματικό πλαίσιο, φροντίστε να δηλώνετε ξεκάθαρα ότι το κείμενο δημιουργήθηκε από τεχνητή νοημοσύνη. Προσθέστε μια αποποίηση ευθύνης που ενημερώνει ότι το εργαλείο έχει περιορισμούς στην κατανόηση και παρουσίαση αληθινών γεγονότων. Επαληθεύστε όλα τα στοιχεία που παράγει το ChatGPT πριν τα μοιραστείτε ή στηριχθείτε σε αυτά. Χρησιμοποιήστε το ChatGPT για αρχική έμπνευση και προσχέδια κειμένων, αφήνοντας την ολοκλήρωση και λάμψη της δημιουργικότητας στον άνθρωπο.

  1. Το ChatGPT θα Κλέψει τις Δουλειές μας?

Ο αντίκτυπος των εργαλείων γραφής τεχνητής νοημοσύνης στις θέσεις εργασίας είναι σύνθετος. Υπάρχει πιθανότητα αντικατάστασης σε ορισμένους τομείς, όπως η βασική συγγραφή ή η έρευνα, αλλά ταυτόχρονα δημιουργούνται και νέες ευκαιρίες. Πολλά εξαρτώνται από την ταχύτητα με την οποία εξελίσσονται οι ικανότητες μηχανικής μάθησης σε σχέση με την προσαρμοστικότητα των ανθρώπων. Εποικοδομητικές συζητήσεις για τη μετάβαση στο εργατικό δυναμικό, τα προγράμματα επανεκπαίδευσης και τη συνεχή εξέλιξη της εκπαίδευσης είναι απαραίτητες για να διασφαλιστεί το κοινωνικό όφελος.

  1. Μήπως το ChatGPT Διαδίδει Ψευδείς Πληροφορίες?

    Αν δεν ελεγχθούν, τα μοντέλα τεχνητής νοημοσύνης όπως το ChatGPT διατρέχουν τον κίνδυνο να δημιουργήσουν ψευδείς ή παραπλανητικές πληροφορίες, λόγω των περιορισμών στην εκπαίδευση τους. Ωστόσο, υπάρχουν τρόποι να μειωθούν οι κίνδυνοι. Εταιρείες όπως η Anthropic εργάζονται για τη βελτίωση της ακρίβειας μέσω τεχνικών όπως η «συνταγματική τεχνητή νοημοσύνη». Ο ρόλος του χρήστη είναι επίσης σημαντικός, αφού πρέπει να επαληθεύει τα δεδομένα και να παραθέτει σωστά τις πηγές όταν χρησιμοποιεί προϊόντα τεχνητής νοημοσύνης, αντί να παρουσιάζει την έξοδο του συστήματος σαν απόλυτη αλήθεια. Η διατήρηση της ανθρώπινης εποπτείας και κρίσης πάνω στις αλγοριθμικές προτάσεις είναι απαραίτητη.

  1. Τι Κάνει η OpenAI για την Ηθική της Τεχνητής Νοημοσύνης?

    Ως ηγέτης στον τομέα της τεχνητής νοημοσύνης γλώσσας, η Anthropic υπογραμμίζει την υπεύθυνη ανάπτυξη με βάση τις αρχές της συνταγματικής τεχνητής νοημοσύνης, που είναι η ασφάλεια, η ειλικρίνεια και η συγκατάθεση. Αυτό περιλαμβάνει εκτεταμένους ελέγχους μοντέλων, σύνολα δεδομένων Kingsguard για έλεγχο ποιότητας, σκόπιμους περιορισμούς συστημάτων για την αποφυγή κακόβουλης χρήσης και εστιασμένη εφαρμογή σε τομείς όπως η εκπαίδευση, αντί για πλήρως αυτόνομη λήψη αποφάσεων. Ζητούν επίσης εξωτερική ανατροφοδότηση και δημοσιεύουν έρευνες για τη βελτίωση των βέλτιστων πρακτικών.

Συμπεράσματα

Η άφιξη των μοντέλων παραγωγής τεχνητής νοημοσύνης, όπως το ChatGPT, που μπορούν να δημιουργούν κείμενα ποιότητας ανθρώπου με ευχέρεια, σηματοδοτεί ένα σημείο καμπής στην τεχνολογία με τεράστια υποσχέσεις αλλά και ορισμένους κινδύνους. Καθώς τα συστήματα πίσω από τη μηχανοποιημένη γραφή και σκέψη εξελίσσονται εκθετικά, φέρουν δυναμικό που μπορεί να ανατρέψει τα δεδομένα και να διαδώσει τη δύναμη σε πολλούς τομείς και στην κοινωνία.

Ωστόσο, όπως αποδεικνύουν τα ζητήματα γύρω από την παραπληροφόρηση, τις θέσεις εργασίας και τις προκαταλήψεις, οι ανεξέλεγκτες επιπτώσεις θα μπορούσαν επίσης να επηρεάσουν αρνητικά κοινότητες ή ομάδες που ήδη αντιμετωπίζουν διαρθρωτικά μειονεκτήματα. Γι' αυτόν τον λόγο, οι επείγουσες, συνεργατικές επενδύσεις των ενδιαφερόμενων φορέων όλων των τομέων στην εφαρμοσμένη ηθική της τεχνητής νοημοσύνης είναι απαραίτητες - χαράσσοντας μια δίκαιη πορεία για τον τεχνολογικό μετασχηματισμό μέσω καθοδήγησης, διακυβέρνησης και εκπαίδευσης που βασίζονται στα ανθρώπινα δικαιώματα και την αξιοπρέπεια.

Η συνεχής επανεξέταση των επιδράσεων των αλγοριθμικών συστημάτων στη χρηματοοικονομική ανασφάλεια, τον περιθωριοποίηση και την ανισότητα είναι ζωτικής σημασίας. Εξίσου σημαντική είναι η διαχείριση των απρόβλεπτων συνεπειών σε τομείς όπως η ψυχική υγεία στις νεότερες γενιές που μεγαλώνουν δυσανάλογα ανάμεσα σε έξυπνες συσκευές. Η ευθυγράμμιση του σκοπού και της κατεύθυνσης της τεχνολογικής προόδου με την διαχρονική σοφία για την αρετή, τη δικαιοσύνη και την ανθρώπινη ευημερία είναι το κλειδί για την πραγματοποίηση της υπόσχεσης της τεχνητής νοημοσύνης, αποφεύγοντας παράλληλα αποτρέψιμους κινδύνους.

Πηγές:

National Centre for Social Research (EKKE), NCSR “Demokritos”, & Special Secretariat of Foresight, Presidency of the Greek Government. (2024, January). Generative AI Greece 2030 "Futures of Generative AI in Greece". Retrieved from https://foresight.gov.gr/en/studies/Generative-AI-Greece-2030-Futures-of-Generative-AI-in-Greece/: https://foresight.gov.gr/en/studies/Generative-AI-Greece-2030-Futures-of-Generative-AI-in-Greece/

Notta Ai Team. "ChatGPT Statistics: Usage, Adoption, and Impact in 2023." Notta.ai. https://www.notta.ai/en/blog/chatgpt-statistics.