Εισαγωγικό κείμενο
- 26 Apr 2023
- timeliness
Ο Έλον Μασκ και μια ομάδα παγκοσμίως κορυφαίων ειδικών σε θέματα τεχνητής νοημοσύνης (Α.Ι.) και στελέχη του κλάδου, ζητούν εξάμηνη παύση στην ανάπτυξη συστημάτων πιο ισχυρών από το νέο GPT-4 του OpenA.I., τονίζοντας σε σχετική ανοιχτή επιστολή τους πιθανούς κινδύνους για την κοινωνία και την ανθρωπότητα.
Η επιστολή, που δημοσιεύτηκε από το μη κερδοσκοπικό Ινστιτούτο Future of Life και υπογράφεται από περισσότερα από 1.000 άτομα, συμπεριλαμβανομένου του Μασκ, ζητά να σταματήσει η ανάπτυξη προηγμένης τεχνητής νοημοσύνης έως ότου αναπτυχθούν, εφαρμοστούν και ελεγχθούν από ανεξάρτητους εμπειρογνώμονες κοινά πρωτόκολλα ασφαλείας για τέτοια σχέδια.
″Τα ισχυρά συστήματα τεχνητής νοημοσύνης θα πρέπει να αναπτυχθούν μόνο όταν είμαστε βέβαιοι ότι τα αποτελέσματά τους θα είναι θετικά και οι κίνδυνοι θα είναι διαχειρίσιμοι”, αναφέρει η επιστολή.
Σε αυτήν, περιγράφεται μια σειρά πιθανών κινδύνων για την κοινωνία και τον πολιτισμό από συστήματα τεχνητής νοημοσύνης ανταγωνιστικά για τον άνθρωπο, υπό τη μορφή οικονομικών και πολιτικών διαταραχών.
Οι υπογράφοντες μάλιστα καλούν τους προγραμματιστές να συνεργαστούν με τους υπεύθυνους χάραξης πολιτικής για τη διακυβέρνηση και τις ρυθμιστικές αρχές.
Μεταξύ των υπογραφών είναι και αυτή του Διευθύνοντα Συμβούλου της Stability A.I., Εμαντ Μοσταγκ , ερευνητών στο DeepMind που ανήκει στην Alphabet, καθώς και οι βαρέων βαρών της τεχνητής νοημοσύνης Γιόσουα Μπέντζιο και Στιούαρ Ράσσελ.
″Μπορεί να προκαλέσουν σοβαρή ζημιά... οι μεγάλοι παίκτες γίνονται ολοένα και πιο μυστικοπαθείς για το τι κάνουν, γεγονός που καθιστά δύσκολο για την κοινωνία να αμυνθεί έναντι οποιασδήποτε ζημιάς μπορεί να προκληθεί”.
Σύμφωνα με το μητρώο διαφάνειας της Ευρωπαϊκής Ένωσης, το Ινστιτούτο Future of Life χρηματοδοτείται κυρίως από το Ίδρυμα Μασκ, καθώς και από την υπερδραστήρια ”ομάδα αλτρουισμού” Founders Pledge με έδρα το Λονδίνο και το κοινοτικό Ίδρυμα Silicon Valley.