↑ Google Translator

Τετάρτη 29 Μαρτίου 2023

Stop ChatGPT-4

Τα συστήματα τεχνητής νοημοσύνης με ανθρώπινη-ανταγωνιστική νοημοσύνη μπορούν να θέτουν σοβαρούς κινδύνους για την κοινωνία και την ανθρωπότητα, όπως φαίνεται από εκτεταμένη έρευνα [1] και αναγνωρίζεται από κορυφαία εργαστήρια τεχνητής νοημοσύνης. [2] Όπως αναφέρεται στις ευρέως εγκεκριμένες Αρχές Τεχνητής Νοημοσύνης Asilomar , η προηγμένη τεχνητή νοημοσύνη θα μπορούσε να αντιπροσωπεύει μια βαθιά αλλαγή στην ιστορία της ζωής στη Γη και θα πρέπει να σχεδιάζεται και να διαχειρίζεται με ανάλογη φροντίδα και πόρους . Δυστυχώς, αυτό το επίπεδο σχεδιασμού και διαχείρισης δεν συμβαίνει, παρόλο που τους τελευταίους μήνες τα εργαστήρια τεχνητής νοημοσύνης έχουν εγκλωβιστεί σε έναν αγώνα εκτός ελέγχου για να αναπτύξουν και να αναπτύξουν όλο και πιο ισχυρά ψηφιακά μυαλά που κανείς –ακόμα και οι δημιουργοί τους– δεν μπορεί να καταλάβει. προβλέπουν ή ελέγχουν αξιόπιστα.


Τα σύγχρονα συστήματα AI γίνονται πλέον ανταγωνιστικά για τον άνθρωπο σε γενικές εργασίες, [3] και πρέπει να αναρωτηθούμε: Πρέπει να αφήσουμε τις μηχανές να πλημμυρίσουν τα κανάλια πληροφοριών μας με προπαγάνδα και αναλήθεια; Θα πρέπει να αυτοματοποιήσουμε όλες τις δουλειές, συμπεριλαμβανομένων των ικανοποιητικών; Πρέπει  να αναπτύξουμε μη ανθρώπινα μυαλά που θα μπορούσαν τελικά να ξεπεράσουν σε αριθμό, να ξεπεράσουν, να ξεπεραστούν και να μας αντικαταστήσουν; Πρέπει να διακινδυνεύσουμε να χάσουμε τον έλεγχο του πολιτισμού μας; Τέτοιες αποφάσεις δεν πρέπει να ανατίθενται σε μη εκλεγμένους ηγέτες τεχνολογίας. Ισχυρά συστήματα τεχνητής νοημοσύνης θα πρέπει να αναπτυχθούν μόνο όταν είμαστε σίγουροι ότι τα αποτελέσματά τους θα είναι θετικά και ότι οι κίνδυνοι τους θα είναι διαχειρίσιμοι.Αυτή η εμπιστοσύνη πρέπει να αιτιολογείται επαρκώς και να αυξάνεται ανάλογα με το μέγεθος των πιθανών επιπτώσεων ενός συστήματος. Η πρόσφατη δήλωση του OpenAI σχετικά με την τεχνητή γενική νοημοσύνη , αναφέρει ότι «κάποια στιγμή, μπορεί να είναι σημαντικό να λάβετε ανεξάρτητη αναθεώρηση πριν ξεκινήσετε την εκπαίδευση μελλοντικών συστημάτων και για τις πιο προηγμένες προσπάθειες να συμφωνηθεί ο περιορισμός του ρυθμού ανάπτυξης υπολογιστών που χρησιμοποιείται για τη δημιουργία νέων μοντέλα." Συμφωνούμε. Αυτό το σημείο είναι τώρα.

Ως εκ τούτου, καλούμε όλα τα εργαστήρια τεχνητής νοημοσύνης να σταματήσουν αμέσως για τουλάχιστον 6 μήνες την εκπαίδευση συστημάτων τεχνητής νοημοσύνης πιο ισχυρών από το GPT-4 . Αυτή η παύση θα πρέπει να είναι δημόσια και επαληθεύσιμη και να περιλαμβάνει όλους τους βασικούς παράγοντες. Εάν μια τέτοια παύση δεν μπορεί να εφαρμοστεί γρήγορα, οι κυβερνήσεις θα πρέπει να παρέμβουν και να θεσπίσουν μορατόριουμ.

Τα εργαστήρια τεχνητής νοημοσύνης και οι ανεξάρτητοι εμπειρογνώμονες θα πρέπει να χρησιμοποιήσουν αυτήν την παύση για να αναπτύξουν και να εφαρμόσουν από κοινού ένα σύνολο κοινών πρωτοκόλλων ασφάλειας για προηγμένο σχεδιασμό και ανάπτυξη τεχνητής νοημοσύνης που ελέγχονται αυστηρά και επιβλέπονται από ανεξάρτητους εξωτερικούς ειδικούς. Αυτά τα πρωτόκολλα θα πρέπει να διασφαλίζουν ότι τα συστήματα που τα τηρούν είναι ασφαλή πέρα ​​από εύλογη αμφιβολία. [4] Αυτό δεν σημαίνει παύση στην ανάπτυξη της τεχνητής νοημοσύνης γενικά, απλώς ένα βήμα πίσω από την επικίνδυνη κούρσα προς ολοένα μεγαλύτερα απρόβλεπτα μοντέλα μαύρου κουτιού με αναδυόμενες δυνατότητες.

Η έρευνα και ανάπτυξη της τεχνητής νοημοσύνης θα πρέπει να επικεντρωθεί εκ νέου στο να καταστήσει τα σημερινά ισχυρά, υπερσύγχρονα συστήματα πιο ακριβή, ασφαλή, ερμηνεύσιμα, διαφανή, ισχυρά, ευθυγραμμισμένα, αξιόπιστα και πιστά.

Παράλληλα, οι προγραμματιστές τεχνητής νοημοσύνης πρέπει να συνεργαστούν με τους υπεύθυνους χάραξης πολιτικής για να επιταχύνουν δραματικά την ανάπτυξη ισχυρών συστημάτων διακυβέρνησης τεχνητής νοημοσύνης. Αυτά θα πρέπει τουλάχιστον να περιλαμβάνουν: νέες και ικανές ρυθμιστικές αρχές αφιερωμένες στην τεχνητή νοημοσύνη. επίβλεψη και παρακολούθηση συστημάτων τεχνητής νοημοσύνης υψηλής ικανότητας και μεγάλων δεξαμενών υπολογιστικής ικανότητας· συστήματα προέλευσης και υδατοσήμανσης που βοηθούν στη διάκριση πραγματικών από συνθετικών και παρακολούθησης διαρροών μοντέλων. ένα ισχυρό οικοσύστημα ελέγχου και πιστοποίησης· ευθύνη για βλάβη που προκαλείται από AI· ισχυρή δημόσια χρηματοδότηση για την τεχνική έρευνα για την ασφάλεια της τεχνητής νοημοσύνης· και θεσμούς με επαρκείς πόρους για την αντιμετώπιση των δραματικών οικονομικών και πολιτικών αναταραχών (ειδικά στη δημοκρατία) που θα προκαλέσει η τεχνητή νοημοσύνη.

Η ανθρωπότητα μπορεί να απολαύσει ένα ακμάζον μέλλον με την τεχνητή νοημοσύνη. Έχοντας καταφέρει να δημιουργήσουμε ισχυρά συστήματα τεχνητής νοημοσύνης, μπορούμε τώρα να απολαύσουμε ένα «καλοκαίρι τεχνητής νοημοσύνης» στο οποίο αποκομίζουμε τις ανταμοιβές, σχεδιάζουμε αυτά τα συστήματα προς σαφές όφελος όλων και δίνουμε στην κοινωνία την ευκαιρία να προσαρμοστεί. Η κοινωνία έχει κάνει παύση σε άλλες τεχνολογίες με δυνητικά καταστροφικές επιπτώσεις στην κοινωνία. [5]   Μπορούμε να το κάνουμε εδώ. Ας απολαύσουμε ένα μακρύ καλοκαίρι τεχνητής νοημοσύνης, μη βιαζόμαστε απροετοίμαστοι για ένα φθινόπωρο.

Πηγή: https://futureoflife.org/open-letter/pause-giant-ai-experiments/

(Μεταφρασμένο με Google translate)



 

Για περίεργους

 

 

Εμπλουτίστε τις γνώσεις και τις δεξιότητές σας.

https://curious.com/

Παρουσιάστε!

 

Δημιουργήστε επαγγελματικές και μη παρουσιάσεις στο Powerpoint.

https://create.microsoft.com/en-us/templates/infographics