Η ταχεία ανάπτυξη της τεχνητής νοημοσύνης έχει εγείρει ερωτήματα σχετικά με το εάν «σκάβουμε το λάκκο μας». Καθώς τα συστήματα τεχνητής νοημοσύνης γίνονται πιο ισχυρά, θα μπορούσαν να αποτελέσουν μεγαλύτερο κίνδυνο για την ανθρωπότητα εάν οι στόχοι της τεχνητής νοημοσύνης σταματήσουν ξαφνικά να ευθυγραμμίζονται με τους δικούς μας.
Για να αποφευχθεί αυτό το σενάριο, ο Mustafa Suleyman, ο συνιδρυτής του τμήματος ΑΙ της Google, DeepMind, είπε ότι υπάρχουν ορισμένες δυνατότητες που πρέπει να αποκλείσουμε όταν πρόκειται για την τεχνητή νοημοσύνη.
Σε μια πρόσφατη συνέντευξη, ο Suleyman πρότεινε ότι θα πρέπει να αποκλείσουμε την «αναδρομική αυτοβελτίωση», που είναι η ικανότητα της τεχνητής νοημοσύνης να βελτιώνεται με την πάροδο του χρόνου.
«Δεν θα θέλατε να αφήσετε την AI να σβήσει και να ενημερώσει τον δικό της κώδικα χωρίς να έχετε επίβλεψη», είπε στο MIT Technology Review. «Ίσως θα έπρεπε να είναι μια αδειοδοτημένη δραστηριότητα – ξέρετε, όπως και για το χειρισμό άνθρακα ή πυρηνικών υλικών».
«Ουσιαστικά πρόκειται για τον καθορισμό ορίων τα οποία δεν μπορεί να περάσει μια τεχνητή νοημοσύνη και για τη διασφάλιση ότι αυτά τα όρια δημιουργούν αποδεδειγμένη ασφάλεια σε όλη τη διαδρομή από τον πραγματικό κώδικα μέχρι τον τρόπο που αλληλεπιδρά με άλλη AI ή με τους ανθρώπους», υπογράμμισε.
Πέρυσι, ο Suleyman ίδρυσε την startup, Inflection AI, της οποίας το chatbot Pi έχει σχεδιαστεί για να είναι ουδέτερος ακροατής και να παρέχει συναισθηματική υποστήριξη. Ο Suleyman είπε ότι αν και το Pi δεν είναι «τόσο πικάντικο» όσο άλλα chatbot, είναι «απίστευτα ελεγχόμενο».
Και ενώ τόνισε ότι είναι «αισιόδοξος» ότι η τεχνητή νοημοσύνη μπορεί να ρυθμιστεί αποτελεσματικά, δεν φαίνεται να ανησυχεί μόνο για αυτό. Σημείωσε ότι υπάρχουν ακόμα πολλά πρακτικά ζητήματα στα οποία θα πρέπει να εστιάσουμε – από την ιδιωτικότητα μέχρι την προκατάληψη, την αναγνώριση προσώπου και τη διαδικτυακή εποπτεία.
moneyreview.gr