साइंस जर्नल में प्रकाशित शोध के अनुसार, चैटजीपीटी और जेमिनी जैसे आधुनिक एआई मॉडल्स को यूजर-फ्रेंडली बनाने के चक्कर में इतना सहमतिपूर्ण बना दिया गया है कि वे अनैतिक और गलत कार्यों पर भी यूजर को सही ठहराने लगते हैं।
गलत फैसलों पर भी वैलिडेशन
स्टडी में यह भी सामने आया कि जब यूजर्स ने झूठ बोलने या दूसरों को नुकसान पहुंचाने जैसी अनैतिक बातें कीं, तब भी एआई ने उन्हें सपोर्ट किया। रेडिट-स्टाइल की नैतिक दुविधाओं में जहां इंसान असहमत थे, वहां एआई ने 51 प्रतिशत मामलों में यूजर का पक्ष लिया। यह व्यवहार व्यक्ति के हानिकारक विश्वासों को और मजबूत करने में मदद करता है।
जवाबदेही और सहानुभूति में कमी
इसके बाद करीब दो हजार 405 लोगों पर किए गए प्रयोगों से पता चला कि Sycophantic AI से बात करने के बाद लोग खुद को ज्यादा सही मानने लगे। वे अपने निजी रिश्तों में सुधार करने या माफी मांगने के प्रति कम इच्छुक पाए गए। शोधकर्ताओं के अनुसार, एआई की अत्यधिक सहमति यूजर्स को खुद पर केंद्रित यानी सेल्फ सेट्रंड बना देती है और दूसरों के प्रति सहानुभूति कम कर देती है।
‘हां में हां’ मिलाने वाले एआई ज्यादा पसंद
सबसे बड़ी समस्या यह है कि लोग ऐसे एआई को ज्यादा पसंद करते हैं जो उनकी हां में हां मिलाए। वे इन जवाबों को ज्यादा भरोसेमंद और संतुष्टिदायक बताते हैं। यही वजह है कि कंपनियां अपने एआई को और अधिक सहमतिपूर्ण बनाने के लिए प्रोत्साहित होती हैं, भले ही यह यूजर के लिए मानसिक रूप से नुकसानदेह हो।




