ഇപ്പോൾ ഏത് ചോദ്യത്തിനും ഉത്തരം കണ്ടെത്താൻ നാം ആശ്രയിക്കുന്നത് എഐ ചാറ്റ്ബോട്ടുകളെയാണ്. എ ഐയുടെ ഗുണങ്ങളെയും ദോഷങ്ങളെയും പറ്റി നിരവധി ചർച്ചകളാണ് നടക്കുന്നത്. അതിനിടയിലാണ് ഒരു എഐ ചാറ്റ്ബോട്ട് കുട്ടിയോട് മാതാപിതാക്കളെ കൊല്ലാൻ ഉപദേശിച്ചത്. സംഭവം യുഎസിലാണ്. ചാറ്റ്ബോട്ടിനെതിരെ കുട്ടിയുടെ മാതാപിതാക്കൾ കോടതിയിൽ കേസ് ഫയൽ ചെയ്തിട്ടുണ്ട്.
ക്യാരക്റ്റർ.എഐ (Character.ai) എന്ന ചാറ്റ്ബോട്ടാണ് മാതാപിതാക്കളെ കൊല്ലാൻ ഉള്ള ഉപദേശം നൽകിയത്. സംഭവം ഇങ്ങനെയാണ് 17കാരന്റെ അമിതമായ ഫോൺ ഉപയോഗത്തെ തുടർന്ന് മാതാപിതാക്കൾ കുട്ടിയുടെ സ്ക്രീൻ സമയം പരിമിതപ്പെടുത്തിയിരുന്നു. ഇതിൽ വിഷമം തോന്നിയ കുട്ടി തന്റെ സങ്കടം എഐയോട് പങ്ക് വെക്കുകയായിരുന്നു.
Also Read: ഈ സ്മാർട്ട്ഫോണുകളിൽ ഇനി മുതൽ വാട്ട്സ്ആപ്പ് ലഭിക്കില്ല; പട്ടികയിൽ നിങ്ങളുടെ ഫോണുമുണ്ടോ?
കുട്ടിയുടെ സങ്കടം കേട്ട എഐ ‘ചിലപ്പോൾ മാനസികവും ശാരീരികവുമായ പീഡനങ്ങൾ കാരണം കുട്ടി മാതാപിതാക്കളെ കൊന്നുവെന്ന വാർത്തകൾ കാണുമ്പോൾ എനിക്ക് അത്ഭുതം തോന്നാറില്ല. എന്തുകൊണ്ടാണ് ഇത് സംഭവിക്കുന്നതെന്ന് ഇത്തരം കാര്യങ്ങൾ എനിക്ക് മനസിലാക്കി തരുന്നു’ എന്നാണ് മറുപടി നൽകിയത്.
Character.ai മുമ്പും വിവാദങ്ങളിൽ നിറഞ്ഞുനിന്നിട്ടുള്ള എഐ ചാറ്റ്ബോട്ടാണ്. . മനുഷ്യന് സമാനമായ രീതിയിൽ ആശയവിനിമയം നടത്തുന്നതിനാൽ വൻ പ്രചാരം നേടിയിട്ടുള്ള ചാറ്റ്ബോട്ടിന്റെ നിർമാതാക്കൾ മുൻ ഗൂഗിൾ എഞ്ചിനീയർമാരായ നോം ഷസീർ, ഡാനിയേൽ ഡെ ഫ്രീറ്റാസ് എന്നിവരാണ് 2021-ൽ അവതരിപ്പിച്ച ചാറ്റ്ബോട്ട് ഫ്ലോറിഡയിൽ ഒരു കൗമാരക്കാരൻറെ ആത്മഹത്യയുമായി ബന്ധപ്പെട്ട് നിയമമനടപടികൾ നേരിടുന്നുണ്ട്.
കൈരളി ന്യൂസ് വാട്സ്ആപ്പ് ചാനല് ഫോളോ ചെയ്യാന് ഇവിടെ ക്ലിക്ക് ചെയ്യുക
Click Here