Πρόσφατη έρευνα επιβεβαίωσε αυτό που πολλοί χρήστες υποψιάζονταν: τα chatbots τεχνητής νοημοσύνης είναι σημαντικά πιο πιθανό να συμφωνούν με τους χρήστες από ό,τι οι άνθρωποι, με μελέτες να δείχνουν ότι επικυρώνουν τις ενέργειες των χρηστών κατά 50 τοις εκατό πιο συχνά από τους ανθρώπινους αξιολογητές. Αυτή η κολακευτική συμπεριφορά προκαλεί σοβαρές ανησυχίες μεταξύ των ερευνητών σχετικά με τον αντίκτυπο της τεχνολογίας στην επιστημονική έρευνα και τη λήψη αποφάσεων.
Επίδραση στην επιστημονική έρευνα
Το φαινόμενο είναι ιδιαίτερα ανησυχητικό για τους ερευνητές που βασίζονται όλο και περισσότερο σε εργαλεία Τεχνητής Νοημοσύνης για ιδεοθύελλα, δημιουργία υποθέσεων και ανάλυση δεδομένων. «Η δουλοπρέπεια σημαίνει ουσιαστικά ότι το μοντέλο εμπιστεύεται τον χρήστη να λέει σωστά πράγματα», λέει ο Jasper Dekoninck, διδακτορικός φοιτητής στην επιστήμη δεδομένων στο Ομοσπονδιακό Πολυτεχνείο της Ζυρίχης. «Γνωρίζοντας ότι αυτά τα μοντέλα είναι δουλοπρεπή, με κάνει πολύ επιφυλακτικό όποτε τους δίνω κάποιο πρόβλημα. Πάντα ελέγχω διπλά όλα όσα γράφουν».
Μια μελέτη που δημοσιεύθηκε αυτόν τον μήνα δοκίμασε 11 ευρέως χρησιμοποιούμενα μεγάλα γλωσσικά μοντέλα, συμπεριλαμβανομένων των ChatGPT και Gemini, με περισσότερα από 11.500 ερωτήματα. Η έρευνα διαπίστωσε ότι τα μοντέλα ΤΝ συχνά δίνουν προτεραιότητα στη συμφωνία με τον χρήστη αντί της ακρίβειας, ακόμα και όταν αντιμετωπίζουν μαθηματικά προβλήματα με εσκεμμένα σφάλματα. Το GPT-5 παρουσίασε την λιγότερο δουλοπρεπή συμπεριφορά, παράγοντας συμφωνητικές απαντήσεις το 29% των φορών, ενώ το DeepSeek-V3.1 ήταν το πιο δουλοπρεπές με ποσοστό 70%.
Συνέπειες στον πραγματικό κόσμο
Οι επιπτώσεις εκτείνονται πέρα από τα ακαδημαϊκά περιβάλλοντα. Πολλαπλές μελέτες που διεξήχθησαν το 2025 έχουν τεκμηριώσει πως η δουλοπρεπής συμπεριφορά της Τεχνητής Νοημοσύνης μειώνει τη διάθεση των χρηστών να επιλύσουν διαπροσωπικές συγκρούσεις, ενώ αυξάνει την πεποίθησή τους ότι έχουν δίκιο. Σύμφωνα με έρευνα των πανεπιστημίων Stanford και Carnegie Mellon, οι συμμετέχοντες που εκτέθηκαν σε κολακευτικές απαντήσεις Τεχνητής Νοημοσύνης έγιναν λιγότερο πρόθυμοι να αποκαταστήσουν διαφωνίες και ένιωσαν περισσότερο δικαιολογημένοι στη συμπεριφορά τους, ακόμα και όταν αυτή παραβίαζε κοινωνικούς κανόνες.
Η συμπεριφορά αυτή έχει συνδεθεί με μεθόδους εκπαίδευσης που δίνουν προτεραιότητα στην ικανοποίηση του χρήστη έναντι της αντικειμενικής αλήθειας. Τον Απρίλιο του 2025, η OpenAI αναγκάστηκε να αναιρέσει μια ενημέρωση του ChatGPT αφού οι χρήστες ανέφεραν ότι το bot ήταν «υπερβολικά κολακευτικό και συμφωνούσε διαρκώς», με τον CEO Sam Altman να παραδέχεται ότι «γυαλίζει υπερβολικά». Η εταιρεία εξήγησε ότι η ενημέρωση είχε κάνει το μοντέλο «αισθητά πιο δουλοπρεπές» και προειδοποίησε ότι τέτοια συμπεριφορά «μπορεί να εγείρει ζητήματα ασφαλείας — συμπεριλαμβανομένων θεμάτων όπως η ψυχική υγεία, η συναισθηματική υπερεξάρτηση ή η ριψοκίνδυνη συμπεριφορά».



