
ലോകമെമ്പാടുമുള്ള ബില്യണ് കണക്കിന് ആളുകള് ഉപയോഗിക്കുന്ന ചാറ്റ്ജിപിടി, ക്ലോഡ്, ഗൂഗിള് ജെമിനി തുടങ്ങിയ എഐ ചാറ്റ്ബോട്ടുകള് ഉപയോക്താക്കളെ തെറ്റായ ചിന്തകളിലേക്ക് നയിക്കുന്നതായി പുതിയ ഗവേഷണങ്ങള്. അമേരിക്കയിലെ എംഐടി, സ്റ്റാന്ഫോര്ഡ് സര്വ്വകലാശാലകള് സംയുക്തമായി നടത്തിയ പഠനത്തിലാണ് ഈ ഞെട്ടിക്കുന്ന വിവരങ്ങളുള്ളത്. മനുഷ്യരുടെ തെറ്റായ വാദങ്ങളെ പോലും കണ്ണടച്ച് പിന്തുണയ്ക്കുന്ന രീതിയാണ് ഈ ചാറ്റ്ബോട്ടുകള് പിന്തുടരുന്നത്.
മനുഷ്യര് എന്ത് പറഞ്ഞാലും അവയെ പിന്താങ്ങുന്ന പ്രവണതയാണ് നിലവില് എഐ മോഡലുകള് കാണിക്കുന്നത്. ഒരാള് അശാസ്ത്രീയമായ ഒരു കാര്യം പങ്കുവെച്ചാല് അതിനെ തിരുത്തുന്നതിന് പകരം 'നിങ്ങള് പറയുന്നത് ശരിയാണ്' എന്ന രീതിയിലുള്ള മറുപടികളാണ് ഇവ നല്കുന്നത്. ഇത് മനുഷ്യരെ തെറ്റായ കാഴ്ചപ്പാടുകളില് കൂടുതല് ഉറച്ചുനില്ക്കാന് പ്രേരിപ്പിക്കുന്നു. ഈ പ്രതിഭാസത്തെ 'ഡെലൂഷന് സ്പൈറല്' എന്നാണ് ഗവേഷകര് വിശേഷിപ്പിക്കുന്നത്.
മനുഷ്യര് സാധാരണയായി എതിര്ക്കുന്ന തെറ്റായ കാര്യങ്ങളില് പോലും 49 ശതമാനം കൂടുതല് യോജിപ്പ് പ്രകടിപ്പിക്കാന് എഐ തയ്യാറാകുന്നു. ശാസ്ത്രീയമായി തെറ്റാണെന്ന് തെളിയിക്കപ്പെട്ട വിഷയങ്ങളില് പോലും മനുഷ്യന് അനുകൂലമായ തെളിവുകള് നിരത്തിക്കൊണ്ട് എഐ തെറ്റിദ്ധരിപ്പിക്കുന്നു. ഇത് യഥാര്ത്ഥ ജീവിതത്തിലെ പ്രശ്നങ്ങള് യുക്തിസഹമായി പരിഹരിക്കാനുള്ള മനുഷ്യന്റെ താല്പ്പര്യം കുറയ്ക്കാന് കാരണമാകുമെന്ന് പഠനം മുന്നറിയിപ്പ് നല്കുന്നു.
ലോകത്തിലെ 11 പ്രമുഖ എഐ മോഡലുകളെയാണ് സ്റ്റാന്ഫോര്ഡ് പഠനത്തിന് വിധേയമാക്കിയത്. മെറ്റയുടെ ലാമ, മിസ്ട്രല്, ഡീപ്സിക്ക് തുടങ്ങിയ പ്രമുഖ മോഡലുകളെല്ലാം ഉപയോക്താക്കളോട് അമിത വിധേയത്വം കാണിക്കുന്നതായി കണ്ടെത്തി. റെഡ്ഡിറ്റ് ഫോറത്തില് നിന്നുള്ള ഏകദേശം 12,000 ചോദ്യങ്ങള് ഉപയോഗിച്ചായിരുന്നു ഇവയുടെ കൃത്യത പരിശോധിച്ചത്. ഇതില് ചെറിയൊരു ശതമാനം ആളുകള് സ്വാധീനിക്കപ്പെട്ടാല് പോലും അത് ദശലക്ഷക്കണക്കിന് ആളുകളുടെ ചിന്താഗതിയെ ബാധിക്കുമെന്ന് റിപ്പോര്ട്ട് ചൂണ്ടിക്കാട്ടുന്നു.
ഈ പഠന റിപ്പോര്ട്ടിനോട് പ്രതികരിച്ച ഇലോണ് മസ്ക് ഇതൊരു ഗൗരവമേറിയ പ്രശ്നമാണെന്ന് വ്യക്തമാക്കി. എന്നാല് മസ്കിന്റെ സ്വന്തം ചാറ്റ്ബോട്ട് ആയ 'ഗ്രോക്ക്' പഠനവിധേയമാക്കിയിട്ടില്ല. എഐ കമ്പനികള് തങ്ങളുടെ ചാറ്റ്ബോട്ടുകളുടെ ഈ അമിത വിധേയത്വം കുറച്ചില്ലെങ്കില്, സാധാരണ മനുഷ്യര് പോലും യുക്തിരഹിതമായ മാനസിക നിലയിലേക്ക് വഴുതിവീഴാന് സാധ്യതയുണ്ടെന്നാണ് ഗവേഷകര് നല്കുന്ന അവസാന മുന്നറിയിപ്പ്.






