Μπορεί μελλοντικά μια ανεπτυγμένη μορφή τεχνητής νοημοσύνης να είναι «ανυπάκουη» και να φτάσει στο σημείο να θέσει σε κίνδυνο την επιβίωση του ανθρώπινου γένους; Εμείς οι κοινοί θνητοί πιθανόν να πιστεύουμε πως αυτά συμβαίνουν μόνο στις ταινίες επιστημονικής φαντασίας, ωστόσο πολλοί επιστήμονες κρούουν τον κώδωνα του κινδύνου.

Έτσι οι ερευνητές της εταιρείας τεχνητής νοημοσύνης DeepMind, η οποία ανήκει στη Google προτείνουν τη δημιουργία ενός κόκκινου κουμπιού ασφαλείας, που μπορεί κάποιος άνθρωπος να τα πατήσει για να αποτρέψει την πραγματοποίηση επιβλαβών ενεργειών.

Οι επιστήμονες, όμως, επισημαίνουν ότι η τεχνητή νοημοσύνη πιθανόν να εφεύρει τρόπους για να αποφύγει μια τέτοια διακοπή, εξουδετερώνοντας το κουμπί ασφαλείας, μαθαίνοντας να λειτουργεί με βάση τις ανταμοιβές που θα λάβει. Αυτό σημαίνει ότι σταδιακά θα «διαβάζει» το περιβάλλον και θα λειτουργεί με τέτοιον τρόπο ώστε να πετύχει τις περισσότερες ανταμοιβές.

Σε αυτή την περίπτωση οι επιστήμονες προτείνουν την «επιλεκτική αμνησία», δηλαδή όταν ενεργοποιείται το κουμπί ασφαλείας, η τεχνητή νοημοσύνη πιστεύει ότι το σύστημα θα συνεχίσει να λειτουργεί πιστεύοντας ότι δεν θα διακοπεί ξανά.

ΔΙΑΒΑΣΤΕ ΕΠΙΣΗΣ

loading...
loading...
ΠΡΟΤΕΙΝΟΥΜΕ..
To altsantiri.gr θεωρεί δικαίωμα του κάθε αναγνώστη να εκφράζει ελεύθερα τις απόψεις του. Ωστόσο, τονίζουμε ρητά ότι δεν υιοθετούμε τις απόψεις αυτές καθώς εκφράζουν τον εκάστοτε χρήστη και μόνο αυτόν. Παρακαλούμε πολύ να είστε ευπρεπείς στις εκφράσεις σας. Τα σχόλια με ύβρεις εφόσον εντοπίζονται θα διαγράφονται, ενώ οι χρήστες που προκαλούν ή υβρίζουν θα αποκλείονται.