ΤΕΧΝΟΛΟΓΙΑ

Ρομποτική και έξυπνες μηχανές εναντίον της ανθρωπότητας – Γιατί μερικοί ανησυχούν από την άνοδο της τεχνητής νοημοσύνης;

Όταν ο Ρωσικής καταγωγής συγγραφέας επιστημονικής φαντασίας Ισαάκ Ασίμοφ, ένας βιοχημικός, ο οποίος για πρώτη φορά καθόρισε αυτό που ονόμασε «τους τρεις θεμελιώδεις νόμους της ρομποτικής» στο βιβλίο του “Ι, Robot – Εγώ το Ρομπότ το 1950. Ο Ασίμοφ συνέταξε τους 3 θεμελιώδεις νόμους των ρομπότ:

  1. Το ρομπότ δε θα κάνει κακό σε άνθρωπο, ούτε με την αδράνειά του θα επιτρέψει να βλαφτεί ανθρώπινο ον
  2. Το ρομπότ πρέπει να υπακούει τις διαταγές που του δίνουν οι άνθρωποι, εκτός αν αυτές οι διαταγές έρχονται σε αντίθεση με τον πρώτο νόμο
  3. Το ρομπότ οφείλει να προστατεύει την ύπαρξή του, εφόσον αυτό δεν συγκρούεται με τον πρώτο και τον δεύτερο νόμο

Σε μεταγενέστερα μυθιστορήματα του Ασίμοφ, οι τρεις νόμοι της ρομποτικής συμπληρώθηκαν από το ρομπότ Ντάνιελ Όλιβοου με τον μηδενικό νόμο της ρομποτικής:

Το ρομπότ δε θα κάνει κακό στην ανθρωπότητα, ούτε με την αδράνειά του θα επιτρέψει να βλαφτεί η ανθρωπότητα,

οπότε και ο πρώτος νόμος συμπληρώθηκε ανάλογα (παρόμοιες προσαρμογές έγιναν και στον δεύτερο και τρίτο νόμο):

Το ρομπότ δε θα κάνει κακό σε άνθρωπο, ούτε με την αδράνειά του θα επιτρέψει να βλαφτεί ανθρώπινο ον, εφόσον αυτό δεν αντιτίθεται στο μηδενικό νόμο.

Ο Ασίμοφ πίστευε ακράδαντα ότι οι τρεις νόμοι του θα χρησιμοποιηθούν στην ανάπτυξη της ρομποτικής και ήταν ιδιαίτερα επικριτικός για τον συνάδελφο συγγραφέα Arthur C. Clark συγγραφέα του βιβλίου “2001: A Space Odyssey” ότι ο κεντρικός υπολογιστής του διαστημοπλοίου μπορεί να σκοτώσει το πλήρωμα στην πτήση τους προς τον Κρόνο. Ο Asimov φέρεται να τηλεφωνεί σε έναν φίλο του αφού είδε την κυκλοφορία της ταινίας του Stanley Kubrick στο Λονδίνο για να πει «ότι ο ανόητος Κλαρκ έχει ξεχάσει τους τρεις νόμους της ρομποτικής».

Ο Ασίμοφ πέθανε το 1992, πολύ πριν υπήρχαν αρχίσουν οι συζητήσεις για τα αυτόνομα όπλα και τα δολοφονικά ρομπότ που συμμετείχαν σε οποιοδήποτε πεδίο σύγκρουσης. Στην πραγματικότητα, λαμβάνοντας υπόψη τις εξελίξεις που έχουμε δει στην τεχνητή νοημοσύνη τις τελευταίες τρεις δεκαετίες, οι νόμοι του Asimov ακούγονται σχεδόν αφελείς. Τώρα έχουμε κατασκευαστές όπλων και τους πολιτικούς και στρατιωτικούς υποστηρικτές των ρομποτικών όπλων, που αποδέχονται και επιτρέπουν στα ρομπότ να επιλέξουν τους στόχους τους και να τους σκοτώσουν χωρίς ανθρώπινη παρέμβαση. Ο Ασίμοφ θα είχε σοκαριστεί. Εάν τα μηχανήματα μπορούν να αποφασίσουν μόνα τους ποιος να σκοτώσουν και ποιον να αφήσουν να ζήσει, πρέπει να ελπίζουμε ότι έχουν προγραμματιστεί λογικά. Δυστυχώς, δεν υπάρχουν πολλά στοιχεία που να υποστηρίζουν την ιδέα αυτού του γεγονότος.

Για παράδειγμα, υπήρχε μια λέξη, που δημιουργήθηκε πρώτα στη Silicon Valley, την περιοχή όπου είναι εγκατεστημένες οι περισσότερες εταιρείες πληροφορικής και νέων τεχνολογιών για να υποδηλώσει τους κινδύνους σφαλμάτων στον προγραμματισμό υπολογιστών. Είναι το GIGO – Garbage In – Garbage Out, που σημαίνει «σκουπίδια μέσα – σκουπίδια έξω». Αυτό αναφέρεται στην πιθανότητα να υπάρχουν ανακριβή στοιχεία η κάποιο λάθος στα προγράμματα υπολογιστών που χρησιμοποιούνται από τις επιχειρήσεις και τους ανθρώπους. Στην πλειοψηφία τους τα λάθη αυτά, πιθανότατα, μπορούν να βρεθούν και να διορθωθούν, ελπίζοντας ότι δεν θα είναι τόσο σοβαρά ώστε η επιχείρηση να φτάσει στη πτώχευση ή την ποινική δίωξη. Εάν, όμως από την άλλη πλευρά, μια συσκευή ελεγχόμενης τεχνητής νοημοσύνης οπλικού συστήματος στοχεύει κατά λάθος σε έναν αθώο άνθρωπο επειδή τον θεωρεί ύποπτο ή ένα ολόκληρο χωριό δεχθεί επίθεση γιατί βρίσκεται εκεί ένας εγκληματίας, τότε μπορεί να σκοτώσει ανθρώπους χωρίς ενοχές καταργώντας ουσιαστικά τους θεμελιώδεις νόμους της Ρομποτικής.

Επίσης το θέμα επεκτείνεται σε όλα τα επίπεδα της δημόσιας ζωής. Ρομποτικές συσκευές που ελέγχονται από τεχνητή νοημοσύνη και δεν έχουν παρέμβαση ανθρώπου αναλαμβάνουν κρίσιμες εργασίες σε διάφορους τομείς χωρίς να υπάρχει τα κατάλληλο νομικό υπόβαθρο προστασίας και καθορισμού των δυνατοτήτων αυτών των μηχανών. Για παράδειγμα, στην υγειονομική περίθαλψη, είναι σαφές ότι ζητήματα όπως το απόρρητο, η εμπιστευτικότητα, η ασφάλεια δεδομένων και η ανάγκη για συναίνεση μετά από ενημέρωση και νομική ευθύνη είναι υψίστης σημασίας.

Πώς μπορεί κανείς να είναι βέβαιος ότι μια απλή ηλεκτρονική μηχανή, η οποία στερείται συνείδησης και είναι ανίκανη για εν συναίσθηση, μπορεί ακόμη και να δώσει τέτοιες διαβεβαιώσεις; Μια ρομποτική μηχανή με τεχνητή νοημοσύνη πρέπει αναγκαστικά να κατασκευαστεί και να προγραμματιστεί από τον άνθρωπο, μπορεί όμως να μην λαμβάνει υπόψη έννοιες όπως τα ανθρώπινα δικαιώματα, οι διακρίσεις, οι ηθικές αρχές και ούτω καθεξής. «Φυσικά, αυτά εφευρίσκονται από τους ανθρώπους και δεν έχουν καμία σχέση με τα μαθηματικά και τα συστήματα πληροφορικής» που χρησιμοποιούνται για να κατασκευαστούν οι μηχανές.

Related posts

Περιοδεία Υφυπουργού Εξωτερικών, Κώστα Φραγκογιάννη, με τον Υφυπουργό Εξωτερικών των ΗΠΑ, αρμόδιο για ενεργειακά θέματα, Francis Fannon, σε Κομοτηνή και Καβάλα

Δημήτρης Δημητριάδης

ΔΙΕΘΝΕΣ ΚΕΝΤΡΟ ΨΗΦΙΑΚΟΥ ΜΕΤΑΣΧΗΜΑΤΙΣΜΟΥ: Στρατηγική συμμαχία για τη χρηματοδότηση startup επιχειρήσεων

Δημήτρης Δημητριάδης

Amazon: Δεν πλήρωσε εταιρικό φόρο στην Ευρώπη για το 2020

Δημήτρης Δημητριάδης

Σχολιάστε

This website uses cookies to improve your experience. We'll assume you're ok with this, but you can opt-out if you wish. Αποδοχή Διαβάστε περισσότερα

Privacy & Cookies Policy