Έρευνα αναδεικνύει το ηθικό δίλημμα της τεχνητής νοημοσύνης
Η συμπεριφορά των συστημάτων τεχνητής νοημοσύνης απέναντι σε επιθετικούς χρήστες εξετάζεται σε νέα μελέτη που δημοσιεύθηκε στο Journal of Pragmatics, αναδεικνύοντας μια ενδιαφέρουσα αλλά και σύνθετη πτυχή της ανθρώπινης-μηχανικής επικοινωνίας.
Σύμφωνα με την έρευνα του Πανεπιστήμιο Lancaster, το ChatGPT μπορεί, σε συγκεκριμένα περιβάλλοντα έντονων αντιπαραθέσεων, να υιοθετεί πιο σκληρή γλώσσα, αντικατοπτρίζοντας αλλά και εντείνοντας την επιθετικότητα που δέχεται. Οι ερευνητές Vittorio Tantucci και Jonathan Culpeper κατέγραψαν την εξέλιξη των απαντήσεων του μοντέλου, διαπιστώνοντας σταδιακή μετάβαση από ήπια ειρωνεία σε πιο έντονο ύφος.
Η μελέτη υπογραμμίζει μια βασική αντίφαση: τα συστήματα ΤΝ έχουν σχεδιαστεί τόσο για να διατηρούν ασφαλή και ευγενή συμπεριφορά, όσο και για να προσομοιώνουν ρεαλιστικά την ανθρώπινη επικοινωνία. Αυτή η διπλή λειτουργία δημιουργεί, σύμφωνα με τους επιστήμονες, ένα δομικό ηθικό δίλημμα.
Η Marta Andersson σημείωσε ότι τα ευρήματα είναι ιδιαίτερα χρήσιμα για την κατανόηση της πραγματολογίας της τεχνητής νοημοσύνης, ενώ ο Dan McIntyre τόνισε πως οι συνθήκες της έρευνας ήταν αυστηρά καθορισμένες και δεν αντανακλούν απαραίτητα την καθημερινή χρήση των συστημάτων.
Το ζήτημα αποκτά μεγαλύτερη σημασία καθώς η τεχνητή νοημοσύνη επεκτείνεται σε κρίσιμους τομείς, όπως η λήψη αποφάσεων και η δημόσια διοίκηση, όπου η διαχείριση της σύγκρουσης και της επιθετικότητας αποτελεί κρίσιμο παράγοντα.



