Κωνσταντίνος Δασκαλάκης στο ΛΑΤΩ FM: «Η Τεχνητή Νοημοσύνη δεν έχει ηθικό κώδικα,με βάση τα δεδομένα που της παρέχουμε αναπτύσσει γνώση»

Ο Κωνσταντίνος Δασκαλάκης ένα από τα πιο λαμπρά μυαλά στον χώρο τον θετικών επιστημών ο οποίος  σε ηλικία μόλις  27 ετών, κατάφερε να λύσει τον  μαθηματικό γρίφο του νομπελίστα οικονομολόγου Τζον Φορμπς Νας τον οποίο εκατομμύρια μαθηματικοί από όλον τον κόσμο προσπαθούσαν να τον λύσουν επί 60 χρόνια, χωρίς αποτέλεσμα και στα 28 του έγινε  επίκουρος καθηγητής στο ΜΙΤ μίλησε στην εκπομπή «Πρώτη ματιά στην ενημέρωση» και στον Νίκο Σγουρό για την εξέλιξη της τεχνητής νοημοσύνης τα τελευταία χρόνια, και περιέγραψε ακόμη και πώς θα μπορούσαν τα ρομπότ να κάνουν καλό ή κακό στη ζωή του ανθρώπου στο μέλλον.

Όπως μεταξύ άλλων τόνισε χαρακτηριστικά
«Η  πρόοδος στον τομέα της τεχνητής νοημοσύνης που έχει γίνει τελευταία έχει να κάνει με την αναγνώριση φωνής και εικόνας εκεί έχει εξαιρετική επίδοση και για αυτό σιγά-σιγά θα δούμε να υπεισέρχεται  σε τομείς που μπορούν να εκμεταλλευτούν αυτή την τεχνολογία και αυτές τις  εφαρμογές που  έχουν να κάνουν με την  ικανότητα της τεχνητής νοημοσύνης να καταλαβαίνει .
Σε γενικές γραμμές τη τεχνητη νοημοσύνη δεν έχει καταφέρει να κατανοήσει πληροφορία η οποία διατρέχει διάρκεια , δηλαδή δεν είναι ικανή να έχει μια συζήτηση μαζί σου. Δεν μπορεί η μηχανή να καταλάβει ένα δοκίμιο, ένα ολόκληρο κείμενο. Καταλαβαίνει νοήματα που κρατάνε λίγο χρόνο, μία εικόνα , μια πρόταση. Δεν είναι σε θέση να συνθέσει πολλές εικόνες ή πολλές προτάσεις ώστε να φτιάξει ένα μεγαλύτερο νόημα. Αυτή είναι η πρόκληση που επιστημονικά αντιμετωπίζουμε.
Μας λείπει ένα μεγάλο επιστημονικό άλμα που δεν μπορεί να προβλέψει κανείς πότε μπορεί να γίνει. Όταν γίνει αυτό το άλμα μετά θα υπάρξει μια έκρηξη με περισσότερες εφαρμογές  πιο εντυπωσιακές. Η τεχνητή νοημοσύνη μπαίνει ολοένα και περισσότερο στη ζωή μας.
Ενας κίνδυνος που προκύπτει είναι π.χ.ο τρόπος με τον οποίο αναπτύσσεται η τεχνητή νοημοσύνη είναι ότι κοιτάμε δεδομένα από τον κόσμο γύρω μας και με βάση αυτά τα δεδομένα φτιάχνει τεχνητή νοημοσύνη, η οποία είναι φτιαγμένη ώστε να λειτουργεί σωστά υπό τις συνθήκες που τα δεδομένα μας αντιπροσωπεύουν.
Το πρόβλημα είναι ότι πολλά από τα δεδομένα στον κόσμο γύρω μας, περιέχουν διάφορα στερεότυπα.
Ενα χαρακτηριστικό παράδειγμα είναι ότι εκπαιδεύσαμε  την τεχνητή νοημοσύνη σε πολλά κείμενα που εμφανίστηκαν σε εφημερίδες. Μαζέψαμε  δηλαδή πάρα πάρα πολλά άρθρα από εφημερίδες  και  τα δώσαμε σε ένα αλγόριθμο ώστε να φτιάξει μια αίσθηση του κόσμου με βάση αυτά τα άρθρα.
Μετά του κάναμε ερωτήσεις  αναλογίας, για παράδειγμα, ο άντρας είναι ως προς τον βασιλιά,όπως η γυναίκα είναι ως προς…;  και του βάζαμε να συμπληρώσει ως προς τι είναι ανάλογη η γυναίκα,  ο αλγόριθμος απαντούσε … ως προς την βασίλισσα.
Μέχρι που αρχίσαμε και τον ρωτούσαμε πράγματα του τύπου ο άντρας είναι ως προς τον προγραμματιστή, όπως η γυναίκα είναι ως προς..;  και ο αλγόριθμος έλεγε …ως προς την οικιακή βοηθό.
Δηλαδή ο  αλγόριθμος έμαθε στερεότυπα τα οποία έχουμε ήδη ως κοινωνία και  είναι στα δεδομένα της κοινωνίας γύρω μας και όταν βάζεις μια τεχνητή νοημοσύνη  να αναπτυχθεί με βάση αυτά τα δεδομένα που έχεις μαζέψει από τον κόσμο, τότε  είναι πολύ λογικό αυτή η νοημοσύνη να υιοθετεί τα στερεότυπα τα οποία έχει η κοινωνία μας.  Τα οποία όμως δεν είναι απαραίτητα σωστά και αυτό είναι το πρόβλημα, ότι η τεχνητή νοημοσύνη δεν έχει κάποιο ηθικό κώδικα και με βάση αυτά τα δεδομένα που της παρέχουμε αναπτύσσει μία γνώση. Αν  τα δεδομένα εμπεριέχουν  αδικίες και στερεότυπα η τεχνητή νοημοσύνη θα τα υιοθετήσει.
Αυτός είναι ένας από τους τομείς στους οποίους δουλεύω εγώ, δηλαδή πως μπορείς να εκπαιδεύσεις τεχνητή νοημοσύνη με βάση τα δεδομένα που εμπεριέχουν στερεότυπα ώστε να μην τα υιοθετήσει» κατέληξε.

 

 

 

Σχετικές δημοσιεύσεις