Ένας από τους λεγόμενους “νονούς” της Τεχνητής Νοημοσύνης (ΤΝ) δήλωσε ότι θα είχε δώσει προτεραιότητα στην ασφάλεια έναντι της χρησιμότητας αν είχε συνειδητοποιήσει τον ρυθμό με τον οποίο θα εξελισσόταν.

Ο καθηγητής Yoshua Bengio δήλωσε στο BBC ότι ένιωθε “χαμένος” για το έργο της ζωής του.

Τα σχόλια του επιστήμονα πληροφορικής έρχονται αφού οι ειδικοί στην τεχνητή νοημοσύνη δήλωσαν ότι θα μπορούσε να οδηγήσει στην εξαφάνιση της ανθρωπότητας.

Ο καθηγητής Bengio, ο οποίος έχει συμμετάσχει στις εκκλήσεις για ρύθμιση της τεχνητής νοημοσύνης, δήλωσε ότι δεν πιστεύει ότι θα πρέπει να παραχωρηθούν στους στρατιωτικούς εξουσίες για την τεχνητή νοημοσύνη.

Είναι ο δεύτερος από τους λεγόμενους τρεις “νονούς” της ΤΝ, γνωστούς για το πρωτοποριακό έργο τους στον τομέα, που εκφράζει ανησυχίες για την κατεύθυνση και την ταχύτητα με την οποία αναπτύσσεται.

Η τεχνητή νοημοσύνη περιγράφει την ικανότητα των υπολογιστών να εκτελούν εργασίες τόσο πολύπλοκες, που προηγουμένως απαιτούσαν ανθρώπινη νοημοσύνη για να ολοκληρωθούν.

Πρόσφατο παράδειγμα είναι η ανάπτυξη των chatbots με τεχνητή νοημοσύνη, όπως το ChatGPT, τα οποία φαίνεται να δίνουν απαντήσεις σε ερωτήσεις που μοιάζουν με ανθρώπινες.

Αυτό έχει οδηγήσει στη σχεδιαζόμενη νομοθεσία της Ευρωπαϊκής Ένωσης για την τεχνητή νοημοσύνη. Και την Τετάρτη, η επικεφαλής τεχνολογίας του μπλοκ, Margrethe Vestager, δήλωσε ότι ένας εθελοντικός κώδικας δεοντολογίας για την τεχνητή νοημοσύνη θα μπορούσε να δημιουργηθεί “εντός των επόμενων εβδομάδων”.

‘Κακοί ηθοποιοί’
Ορισμένοι φοβούνται ότι οι προηγμένες υπολογιστικές ικανότητες θα μπορούσαν να χρησιμοποιηθούν για επιβλαβείς σκοπούς, όπως η ανάπτυξη νέων θανατηφόρων χημικών όπλων.

Ο καθηγητής Bengio δήλωσε στο BBC ότι ανησυχεί για τους “κακούς παράγοντες” που παίρνουν στα χέρια τους την τεχνητή νοημοσύνη, ιδίως καθώς αυτή γίνεται πιο εξελιγμένη και ισχυρή.

“Μπορεί να είναι στρατιωτικοί, μπορεί να είναι τρομοκράτες, μπορεί να είναι κάποιος πολύ θυμωμένος, ψυχωτικός. Και έτσι, αν είναι εύκολο να προγραμματιστούν αυτά τα συστήματα τεχνητής νοημοσύνης για να τους ζητηθεί να κάνουν κάτι πολύ κακό, αυτό θα μπορούσε να είναι πολύ επικίνδυνο.

“Αν είναι πιο έξυπνα από εμάς, τότε είναι δύσκολο για εμάς να σταματήσουμε αυτά τα συστήματα ή να αποτρέψουμε ζημιές”, πρόσθεσε.

Ο καθηγητής Bengio παραδέχθηκε ότι αυτές οι ανησυχίες τον επιβάρυναν προσωπικά, καθώς το έργο της ζωής του, το οποίο του είχε δώσει κατεύθυνση και αίσθηση ταυτότητας, δεν ήταν πλέον σαφές γι’ αυτόν.

“Είναι πρόκληση, συναισθηματικά μιλώντας, για τους ανθρώπους που βρίσκονται μέσα [στον τομέα της τεχνητής νοημοσύνης]”, είπε.

“Θα μπορούσαμε να πούμε ότι αισθάνομαι χαμένος. Αλλά πρέπει να συνεχίσεις να προχωράς και πρέπει να συμμετέχεις, να συζητάς, να ενθαρρύνεις τους άλλους να σκέφτονται μαζί σου”.

Ο Καναδός έχει υπογράψει δύο πρόσφατες δηλώσεις που προτρέπουν σε προσοχή σχετικά με τους μελλοντικούς κινδύνους της τεχνητής νοημοσύνης. Ορισμένοι ακαδημαϊκοί και εμπειρογνώμονες του κλάδου έχουν προειδοποιήσει ότι ο ρυθμός ανάπτυξης θα μπορούσε να οδηγήσει σε κακόβουλη ΤΝ που θα αναπτυχθεί από “κακούς φορείς” για να προκαλέσει ενεργά βλάβη – ή να επιλέξει να προκαλέσει βλάβη από μόνη της.

Ο συνάδελφος “νονός” Dr Geoffrey Hinton έχει επίσης υπογράψει τις ίδιες προειδοποιήσεις με τον καθηγητή Bengio και αποχώρησε πρόσφατα από την Google λέγοντας ότι έχει μετανιώσει για το έργο του.

Ο τρίτος “νονός”, ο καθηγητής Yann LeCun, ο οποίος μαζί με τον καθηγητή Bengio και τον Δρ Hinton κέρδισαν το διάσημο βραβείο Turing Award για το πρωτοποριακό τους έργο, δήλωσε ότι οι αποκαλυπτικές προειδοποιήσεις είναι υπερβολικές.

BBC