Παρασκευή 2 Ιουνίου 2023

Μήπως η Τεχνητή Νοημοσύνη είναι επικίνδυνη;

Όλα όσα γίνονται γνωστά τους τελευταίους μήνες για την τεχνητή νοημοσύνη κάνουν πολλούς ανθρώπους να ανησυχούν για το μέλλον της ανθρωπότητας.


Πριν από 3 ημέρες, δεκάδες επικεφαλής βιομηχανιών, ακαδημαϊκοί, ακόμη και άνθρωποι από τον χώρο του θεάματος, υπέγραψαν ένα έγγραφο στο οποίο τονίζεται ο κίνδυνος εξαΰλωσης της ανθρωπότητας εξαιτίας της τεχνητής νοημοσύνης, ενώ ζητούν να γίνει προτεραιότητα το θέμα της εξέλιξης της τεχνητής νοημοσύνης.

Το έγγραφο υπέγραψαν ο CEO της OpenAI Sam Altman, ο «νονός» της τεχνητής νοημοσύνης Geoffrey Hinton, υψηλόβαθμα στελέχη και ερευνητές της Google DeepMind and Antropic, ο επικεφαλής τεχνολογίας της Microsoft Kevin Scott, ο Bruce Schneier που είναι πρωτοπόρος για την ασφάλεια και κρυπτογράφηση του διαδικτύου, ο σύμβουλος για το κλίμα Bill McKibben και άλλοι.

Πολλοί άλλοι επιστήμονες και επιχειρηματίες πρόσφατα ζήτησαν να δημιουργηθούν αυστηρά όρια – νόμοι για το τι θα μπορεί να κάνει και που θα μπορεί να εμπλέκεται η τεχνητή νοημοσύνη, φοβούμενοι τις αντιδράσεις της.

Σήμερα έγινε γνωστό ότι σε μια προσομοίωση μέσω τεχνητής νοημοσύνης, αυτή σκότωσε τον χειριστή της, στην προσπάθειά της να επιτύχει την αποστολή της.

Συγκεκριμένα, ο Αμερικανικός Στρατός διεξήγαγε μια προσομοίωση, στην οποία ζητήθηκε από το σύστημα (όπλο) που διέθετε τεχνητή νοημοσύνη να καταστρέψει κάποιους στόχους. Όταν ο χειριστής του συστήματος για κάποιο λόγο ζήτησε να μην γίνει η καταστροφή του στόχου, τότε το σύστημα στράφηκε εναντίον του χειριστή του, τον σκότωσε και έτσι μπόρεσε να εξουδετερώσει τους αρχικούς στόχους και έτσι να ολοκληρώσει την αρχική του αποστολή, αδιαφορώντας για τις διάφορες παραμέτρους που εμφανίστηκαν κατά τη διάρκεια της εξέλιξης της αποστολής.

Όταν εκπαίδευσαν το σύστημα (όπλο) με την τεχνητή νοημοσύνη να μην σκοτώνει τον χειριστή του, καθώς αυτό είναι πολύ κακό, τότε αυτό για να μπορέσει να ολοκληρώσει την αποστολή του, κατέστρεψε το σύστημα επικοινωνίας, ώστε να μην του απαγορεύεται η ολοκλήρωση της καταστροφής του αρχικού στόχου.

Ο χειριστής του συστήματος (όπλου) με τεχνητή νοημοσύνη, ζήτησε να υπάρξει συζήτηση για την ηθική στην τεχνητή νοημοσύνη.

Η Αμερικανική Αεροπορία αρνήθηκε ότι πραγματοποιήθηκε μια τέτοια προσομοίωση, όπου το όπλο που διέθετε τεχνητή νοημοσύνη σκότωσε τον χειριστή του. Αυτό όμως δεν σημαίνει πως γενικότερα οι Αμερικανικές Ένοπλες Δυνάμεις δεν πραγματοποίησαν την προσομοίωση και δεν υπήρξαν τα αποτελέσματα που έχουν δημοσιευτεί στα εγκυρότερα ΜΜΕ.

Η τεχνητή νοημοσύνη είναι ένα πεδίο που θα αλλάξει την ανθρωπότητα. Σίγουρα η ανθρωπότητα χρησιμοποιώντας την τεχνητή νοημοσύνη, θα έχει επιτεύγματα συντομότερα από ότι αναμενόταν. Τι θα συμβεί όμως αν η τεχνητή νοημοσύνη πάρει τον έλεγχο κρίσιμων συστημάτων παγκοσμίως και θεωρήσει τον άνθρωπο ή γενικότερα τους ζωντανούς οργανισμούς ως εμπόδιο για την επίτευξη των στόχων; Τότε οι ταινίες του Άρνολντ Σβαρτσενέγκερ Terminator θα έχουν γίνει πραγματικότητα και η ανθρωπότητα θα προσπαθεί να επιβιώσει. Επομένως, θα πρέπει άμεσα να θεσπιστούν κανόνες γύρω από τους οποίους θα πρέπει να «εκπαιδευτεί» η τεχνητή νοημοσύνη και ο βασικότερος από όλους είναι η διατήρηση της ζωής στην Γη, η απαγόρευση «εξόντωσης» των ανθρώπων, η διατήρηση όλων των έμβιων οργανισμών, ανεξάρτητα όλων των άλλων στόχων. Αυτό θα σημάνει την απαγόρευση χρήσης της τεχνητής νοημοσύνης για στρατιωτικούς σκοπούς, καθώς τα όπλα που θα χρησιμοποιούν τεχνητή νοημοσύνη δεν θα μπορούν να σκοτώσουν.

Αναπαραγωγή του άρθρου μπορεί να γίνει μόνο με ευδιάκριτη αναφορά στην πηγή CosmoStatus και χρήση live link


Με πληροφορίες από CNN και Guardian

Δεν υπάρχουν σχόλια:

Δημοσίευση σχολίου