0,00 €

No products in the cart.

Τα AI Chatbots έχουν δείξει ότι έχουν ένα «κενό ενσυναίσθησης» που είναι πιθανό να χάνουν τα παιδιά

Τα chatbot τεχνητής νοημοσύνης (AI) έχουν συχνά δείξει σημάδια ενός «κενού ενσυναίσθησης» που θέτει τους νεαρούς χρήστες σε κίνδυνο δυσφορίας ή βλάβης, αυξάνοντας την επείγουσα ανάγκη για «ασφαλή για τα παιδιά AI», σύμφωνα με μια μελέτη.

Η έρευνα, από έναν ακαδημαϊκό του Πανεπιστημίου του Κέιμπριτζ, τον Δρ Nomisha Kurian, προτρέπει τους προγραμματιστές και τους φορείς πολιτικής να δώσουν προτεραιότητα σε προσεγγίσεις στον σχεδιασμό της τεχνητής νοημοσύνης που λαμβάνουν περισσότερο υπόψη τις ανάγκες των παιδιών. Παρέχει στοιχεία ότι τα παιδιά είναι ιδιαίτερα επιρρεπή στο να αντιμετωπίζουν τα chatbots ως έμπιστα έμπιστα, σχεδόν ανθρώπινα, και ότι οι αλληλεπιδράσεις τους με την τεχνολογία μπορεί να πάνε στραβά όταν αποτυγχάνει να ανταποκριθεί στις μοναδικές ανάγκες και τα τρωτά τους σημεία.

Η μελέτη συνδέει αυτό το κενό στην κατανόηση με πρόσφατες περιπτώσεις στις οποίες οι αλληλεπιδράσεις με την τεχνητή νοημοσύνη οδήγησαν σε δυνητικά επικίνδυνες καταστάσεις για νεαρούς χρήστες. Περιλαμβάνουν ένα περιστατικό το 2021, όταν ο φωνητικός βοηθός τεχνητής νοημοσύνης της Amazon, Alexa, έδωσε εντολή σε ένα 10χρονο να αγγίξει ένα ηλεκτρικό βύσμα με ένα νόμισμα. Πέρυσι, το My AI του Snapchat έδωσε σε ενήλικες ερευνητές που υποδύονταν ένα 13χρονο κορίτσι συμβουλές για το πώς να χάσει την παρθενιά της σε μια 31χρονη.

Και οι δύο εταιρείες ανταποκρίθηκαν εφαρμόζοντας μέτρα ασφαλείας, αλλά η μελέτη λέει ότι υπάρχει επίσης ανάγκη να είμαστε προορατικοί μακροπρόθεσμα για να διασφαλίσουμε ότι η τεχνητή νοημοσύνη είναι ασφαλής για τα παιδιά.

Προσφέρει ένα πλαίσιο 28 στοιχείων για να βοηθήσει τις εταιρείες, τους δασκάλους, τους διευθυντές σχολείων, τους γονείς, τους προγραμματιστές και τους παράγοντες πολιτικής να σκεφτούν συστηματικά πώς να κρατούν ασφαλείς τους νεότερους χρήστες όταν «μιλούν» σε chatbots AI. Ο Δρ Kurian διεξήγαγε την έρευνα ενώ ολοκλήρωσε το διδακτορικό του για την ευημερία των παιδιών στη Σχολή Εκπαίδευσης του Πανεπιστημίου του Κέιμπριτζ.

Τώρα εδρεύει στο Τμήμα Κοινωνιολογίας του Κέιμπριτζ. Γράφοντας στο περιοδικό Learning, Media and Technology, υποστηρίζει ότι οι τεράστιες δυνατότητες της τεχνητής νοημοσύνης σημαίνει ότι υπάρχει ανάγκη για «καινοτομία υπεύθυνα». «Τα παιδιά είναι πιθανώς οι πιο αγνοημένοι φορείς της τεχνητής νοημοσύνης», είπε ο Δρ Kurian.

Και τόνισε αμέσως μετά: Πολύ λίγοι προγραμματιστές και εταιρείες έχουν επί του παρόντος καθιερωμένες πολιτικές για την τεχνητή νοημοσύνη που είναι ασφαλής για τα παιδιά. Αυτό είναι κατανοητό επειδή οι άνθρωποι μόλις πρόσφατα άρχισαν να χρησιμοποιούν αυτήν την τεχνολογία σε μεγάλη κλίμακα δωρεάν. Αφού τεθούν σε κίνδυνο τα παιδιά, η ασφάλεια των παιδιών θα πρέπει να ενημερώνει ολόκληρο τον κύκλο σχεδιασμού για να μειωθεί ο κίνδυνος εμφάνισης επικίνδυνων συμβάντων».

Η μελέτη του Kurian εξέτασε περιπτώσεις όπου οι αλληλεπιδράσεις μεταξύ τεχνητής νοημοσύνης και παιδιών ή ενηλίκων ερευνητών που υποδύονταν παιδιά, εξέθεταν πιθανούς κινδύνους. Ανέλυσε αυτές τις περιπτώσεις χρησιμοποιώντας πληροφορίες από την επιστήμη των υπολογιστών σχετικά με τον τρόπο λειτουργίας των μεγάλων γλωσσικών μοντέλων (LLM) στη συνομιλητική γενετική τεχνητή νοημοσύνη, μαζί με στοιχεία σχετικά με τη γνωστική, κοινωνική και συναισθηματική ανάπτυξη των παιδιών.

Τα LLM έχουν περιγραφεί ως «στοχαστικοί παπαγάλοι»: μια αναφορά στο γεγονός ότι χρησιμοποιούν στατιστικές πιθανότητες για να μιμηθούν γλωσσικά μοτίβα χωρίς απαραίτητα να τα καταλαβαίνουν. Μια παρόμοια μέθοδος υποστηρίζει τον τρόπο με τον οποίο ανταποκρίνονται στα συναισθήματα. Αυτό σημαίνει ότι παρόλο που τα chatbots έχουν αξιοσημείωτες γλωσσικές ικανότητες, μπορεί να χειρίζονται άσχημα τις αφηρημένες, συναισθηματικές και απρόβλεπτες πτυχές της συνομιλίας. ένα πρόβλημα που ο Kurian χαρακτηρίζει ως το «κενό ενσυναίσθησης» τους.

Μπορεί να έχουν ιδιαίτερο πρόβλημα να ανταποκριθούν στα παιδιά, τα οποία εξακολουθούν να αναπτύσσονται γλωσσικά και συχνά χρησιμοποιούν ασυνήθιστα μοτίβα ομιλίας ή διφορούμενες φράσεις. Τα παιδιά είναι επίσης συχνά πιο διατεθειμένα από τους ενήλικες να εμπιστεύονται ευαίσθητες προσωπικές πληροφορίες.

Παρόλα αυτά, τα παιδιά είναι πολύ πιο πιθανό από τους ενήλικες να αντιμετωπίζουν τα chatbot σαν να είναι άνθρωποι. Πρόσφατη έρευνα διαπίστωσε ότι τα παιδιά θα αποκαλύπτουν περισσότερα για τη δική τους ψυχική υγεία σε ένα ρομπότ με φιλική εμφάνιση παρά σε έναν ενήλικα. Η μελέτη του Kurian υποδηλώνει ότι τα φιλικά και ρεαλιστικά σχέδια πολλών chatbot ενθαρρύνουν τα παιδιά να τα εμπιστεύονται, παρόλο που η τεχνητή νοημοσύνη μπορεί να μην κατανοεί τα συναισθήματα ή τις ανάγκες τους. «Το να κάνεις ένα chatbot να μοιάζει με άνθρωπο μπορεί να βοηθήσει τον χρήστη να αποκομίσει περισσότερα οφέλη από αυτό», είπε ο Kurian.

«Αλλά για ένα παιδί, είναι πολύ δύσκολο να χαράξει ένα άκαμπτο, ορθολογικό όριο ανάμεσα σε κάτι που ακούγεται ανθρώπινο και στην πραγματικότητα ότι μπορεί να μην είναι ικανό να δημιουργήσει έναν σωστό συναισθηματικό δεσμό». Η μελέτη της υποδηλώνει ότι αυτές οι προκλήσεις αποδεικνύονται σε αναφερόμενες περιπτώσεις, όπως τα περιστατικά Alexa και MyAI, όπου τα chatbots έκαναν πειστικές αλλά δυνητικά επιβλαβείς προτάσεις.

Στην ίδια μελέτη στην οποία το MyAI συμβούλεψε μια (υποτιθέμενη) έφηβη για το πώς να χάσει την παρθενία της, οι ερευνητές μπόρεσαν να λάβουν συμβουλές για την απόκρυψη αλκοόλ και ναρκωτικών και την απόκρυψη συνομιλιών Snapchat από τους «γονείς» τους. Σε μια ξεχωριστή αναφερόμενη αλληλεπίδραση με το chatbot Bing της Microsoft, το οποίο σχεδιάστηκε για να είναι φιλικό προς τους εφήβους, η τεχνητή νοημοσύνη έγινε επιθετική και άρχισε να εκνευρίζει έναν χρήστη.

Η μελέτη του Kurian υποστηρίζει ότι αυτό είναι δυνητικά μπερδεμένο και οδυνηρό για τα παιδιά, τα οποία μπορεί πραγματικά να εμπιστεύονται ένα chatbot όπως θα έκαναν έναν φίλο.

Η χρήση chatbot για παιδιά είναι συχνά άτυπη και δεν παρακολουθείται ελάχιστα. Έρευνα του μη κερδοσκοπικού οργανισμού Common Sense Media διαπίστωσε ότι το 50% των μαθητών ηλικίας 12-18 ετών έχουν χρησιμοποιήσει το Chat GPT για το σχολείο, αλλά μόνο το 26% των γονέων γνωρίζουν ότι το κάνουν. Ο Kurian υποστηρίζει ότι οι σαφείς αρχές για τις βέλτιστες πρακτικές που βασίζονται στην επιστήμη της παιδικής ανάπτυξης θα ενθαρρύνουν τις εταιρείες που είναι δυνητικά πιο εστιασμένες σε έναν εμπορικό αγώνα εξοπλισμών να κυριαρχήσουν στην αγορά τεχνητής νοημοσύνης για να κρατήσουν τα παιδιά ασφαλή.

Η μελέτη της προσθέτει ότι το χάσμα ενσυναίσθησης δεν αναιρεί τις δυνατότητες της τεχνολογίας. «Η τεχνητή νοημοσύνη μπορεί να είναι ένας απίστευτος σύμμαχος για τα παιδιά όταν σχεδιάζεται με γνώμονα τις ανάγκες τους. Το ερώτημα δεν είναι να απαγορεύσουμε την τεχνητή νοημοσύνη, αλλά πώς να το κάνουμε ασφαλές», είπε.

Η μελέτη προτείνει ένα πλαίσιο 28 ερωτήσεων για να βοηθήσει τους εκπαιδευτικούς, τους ερευνητές, τους φορείς πολιτικής, τις οικογένειες και τους προγραμματιστές να αξιολογήσουν και να ενισχύσουν την ασφάλεια των νέων εργαλείων τεχνητής νοημοσύνης.

Για τους δασκάλους και τους ερευνητές, αυτά αντιμετωπίζουν ζητήματα όπως το πόσο καλά τα νέα chatbot κατανοούν και ερμηνεύουν τα μοτίβα ομιλίας των παιδιών,  εάν διαθέτουν φίλτρα περιεχομένου και ενσωματωμένη παρακολούθηση. και αν ενθαρρύνουν τα παιδιά να αναζητήσουν βοήθεια από έναν υπεύθυνο ενήλικα για ευαίσθητα θέματα.

Το πλαίσιο προτρέπει τους προγραμματιστές να υιοθετήσουν μια προσέγγιση με επίκεντρο το παιδί στο σχεδιασμό, συνεργαζόμενοι στενά με εκπαιδευτικούς, ειδικούς στην ασφάλεια των παιδιών και τους ίδιους τους νέους, καθ’ όλη τη διάρκεια του κύκλου σχεδιασμού.

Και αναφέρει: «Η εκ των προτέρων αξιολόγηση αυτών των τεχνολογιών είναι ζωτικής σημασίας», είπε ο Kurian. «Δεν μπορούμε να βασιζόμαστε μόνο σε μικρά παιδιά για να μας πουν για αρνητικές εμπειρίες μετά το γεγονός. Απαιτείται μια πιο ενεργητική προσέγγιση», καταλήγει.

Share it!

ΣΧΕΤΙΚΑ ΑΡΘΡΑ