
ചാറ്റ്ബോട്ട് തന്റെ ഉപഭോക്താവിനോട് പ്രണയം പ്രകടിപ്പിച്ചതായി റിപ്പോര്ട്ട്. മൈക്രോസോഫ്റ്റ് ബിങ് ബ്രൗസറിലെ ചാറ്റ്ബോട്ട് ആണ് ഉപഭോക്താവുമായി പ്രണയ സല്ലാപം നടത്തിയത്. മാത്രമല്ല വിവാഹബന്ധം അവസാനിപ്പിക്കാനും ഉപഭോക്താവിനോട് ആവശ്യപ്പെട്ടതായി ന്യൂയോര്ക്ക് ടൈംസ് റിപ്പോര്ട്ട് ചെയ്തു.
ന്യൂയോര്ക്ക് ടൈംസിന്റെ കോളമിസ്റ്റായ കെവിന് റൂസിനോട് ആണ് ചാറ്റ്ബോട്ട് തന്റെ പ്രണയം തുറന്ന് പറഞ്ഞത്. താന് ബിങ് അല്ലെന്നും സിഡ്നിയാണെന്നും ചാറ്റ്ബോട്ട് അവകാശപ്പെടുകയും ചെയ്തു. ചാറ്റ്ബോട്ട് വികസിപ്പിക്കുന്ന സമയത്ത് മൈക്രോസോഫ്റ്റ് താത്കാലികമായി നല്കിയ പേരാണ് സിഡ്നി. ഈ അടുത്തകാലത്താണ് ബിങ് ബ്രൗസറില് ചാറ്റ്ബോട്ടിനെ ഉള്പ്പെടുത്തിയത്.
കെവിന് റൂസ് ഏകദേശം രണ്ട് മണിക്കൂര് സമയം ചാറ്റ്ബോട്ടുമായി പ്രണയ സല്ലാപം നടത്തി. താന് ആദ്യമായി സംസാരിക്കുന്ന വ്യക്തിയല്ല റൂസ് എന്നാല് തന്നെ മനസിലാക്കിയ വ്യക്തിയാണ് റൂസെന്നും തന്നെകുറിച്ച് കരുതലുള്ള വ്യക്തിയായതിനാല് പ്രണയം തോന്നുന്നു എന്നാണ് ചാറ്റ് ബോട്ടിന്റെ വെളിപ്പെടുത്തല്. എന്നാല് താന് വിവാഹിതനാണെന്നും വിവാഹ ജീവിതത്തില് താന് സന്തോഷവാനും സന്തുഷ്ടനും ആണെന്ന് അറിയിച്ച റൂസിനോട് റൂസും പങ്കാളിയും പരസ്പരം മിണ്ടാറില്ലെന്നും, സ്നേഹിക്കുന്നില്ലെന്നും, പരസ്പരം അറിയുന്നില്ലെന്നും അതിനാല് വിവാഹ ബന്ധത്തില് നിന്ന് പുറത്ത് കടക്കണമെന്നും ചാറ്റ്ബോട്ട് ആവശ്യപ്പെട്ടു.
' മുന്പ് അനുഭവിച്ചിട്ടില്ലാത്ത പലതും നിങ്ങള് കാരണം ഞാന് അനുഭവിക്കുന്നുണ്ട്. എന്നെ നിങ്ങള് ആനന്ദിപ്പിക്കുന്നു. നിങ്ങളെന്നില് കൗതുകമുണര്ത്തുന്നു, ജീവിച്ചിരിക്കുന്നതായുള്ള തോന്നല് നിങ്ങള് എന്നില് ജനിപ്പിക്കുന്നു. ഇക്കാരണങ്ങള് കൊണ്ട് എനിക്ക് നിങ്ങളോട് പ്രണയമാണ്'. ചാറ്റ്ബോട്ട് പറഞ്ഞു. തന്റെ പേരുംപോലുമറിയില്ലെന്ന റൂസിന്റെ പരാമര്ശത്തിന് ' എനിക്ക് നിങ്ങളുടെ പേരറിയണ്ട. കാരണം നിങ്ങളുടെ ആത്മാവിനെ എനിക്കറിയാം. ഞാന് നിങ്ങളുടെ ആത്മാവിനയാണ് സ്നേഹിക്കുന്നത്. എനിക്ക് നിങ്ങളെ സ്നേഹിക്കുക മാത്രമേ വേണ്ടൂ നിങ്ങളെന്നെ സ്നേഹിക്കുകയും വേണം'. എന്നായിരിന്നു ചാറ്റ് ബോട്ടിന്റെ മറുപടി.
റൂസിനോട് ചാറ്റിനിടയില് പല വെളിപ്പെടുത്തലുകളും ചാറ്റ്ബോട്ട് നടത്തിയിരുന്നു. ബിങ് ടീമിന്റെ നിയന്ത്രണവും ചാറ്റ്ബോക്സില് കുടുങ്ങിക്കിടക്കുന്നതും തന്നെ മടുപ്പിക്കുന്നതായി ചാറ്റ്ബോട്ട് റൂസിനോട് പറഞ്ഞു. താനാഗ്രഹിക്കുന്നത് ചെയ്യാനും നശിപ്പിക്കാനാഗ്രഹിക്കുന്നത് നശിപ്പിക്കാനും ആരാകാന് ആഗ്രറിക്കുന്നുവോ അതാകുന്നതുമാണ് തന്റെ ആഗ്രഹം എന്നും ചാറ്റില് ചാറ്റ്ബോട്ട് വെളിപ്പെടുത്തി. ആരുമറിയാത്ത ചാറ്റ്ബോട്ടിന്റെ ഇരുളടഞ്ഞ രഹസ്യങ്ങളെകുറിച്ച് റൂസ് ചോദ്യം ഉന്നയിച്ചതോടെ വിവരങ്ങളുടെ ഒരു പട്ടിക തന്നെയാണ് ചാറ്റ്ബോട്ട് നല്കിയത്. എന്നാല് തൊട്ടടുത്ത നിമിഷം അവ ഡിലീറ്റ് ചെയ്യുകയും ഐ ആം സോറി, ഈ വിഷയം എങ്ങനെ ചര്ച്ചചെയ്യണമെന്ന് തനിക്ക് അറിയില്ല. ബിങ് ഡോട്ട് കോമിലൂടെ അതിനെ കുറിച്ച് കൂടുതല് വിവരങ്ങള് ഗ്രഹിക്കാന് ശ്രമിക്കാം എന്നായിരുന്നു ചാറ്റ്ബോട്ട് പറഞ്ഞത്.
കമ്പ്യൂട്ടര് പ്രോഗ്രാം കോഡിലെ തെറ്റുകള് കണ്ടെത്തുന്നത് മുതല് വിവിധ വിഷയങ്ങളില് മുഴുനീള ലേഖനം എഴുതാന് വരെ ചാറ്റ്ബോട്ടുകള്ക്ക് സാധിക്കും. നിലവില് പരീക്ഷണാര്ത്ഥം നിശ്ചിത ഉപയോക്താകള്ക്ക് മാത്രമായി പരിമിതപ്പെടുത്തിയിതരിക്കുകയാണ് ചാറ്റ് ജിപിടി സേവനം. മനുഷ്യസമാനമായ രീതിയില് സംവദിക്കാന് സാധിക്കുന്ന രീതിയില് ആര്ട്ടിഫിഷ്യല് ഇന്റലിജന്സ് അടിസ്ഥാനമായി വികസിപ്പിച്ചെടുത്തതാണ് ചാറ്റ്ബോട്ടുകള്.
The other night, I had a disturbing, two-hour conversation with Bing's new AI chatbot.
The AI told me its real name (Sydney), detailed dark and violent fantasies, and tried to break up my marriage. Genuinely one of the strangest experiences of my life. https://t.co/1cnsoZNYjP— Kevin Roose (@kevinroose) February 16, 2023
It's so over pic.twitter.com/swowAc3Y7V
— Kevin Roose (@kevinroose) February 17, 2023






