ഫോൺ അധികം ഉപയോ​ഗിക്കേണ്ടെന്ന് രക്ഷിതാക്കൾ; മാതാപിതാക്കളെ കൊല്ലാൻ കുട്ടിയെ ഉപദേശിച്ച് എഐ ചാറ്റ് ബോട്ട്

Ai chatbot

ഇപ്പോൾ ഏത് ചോദ്യത്തിനും ഉത്തരം കണ്ടെത്താൻ നാം ആശ്രയിക്കുന്നത് എഐ ചാറ്റ്ബോട്ടുകളെയാണ്. എ ഐയുടെ ​ഗുണങ്ങളെയും ദോഷങ്ങളെയും പറ്റി നിരവധി ചർച്ചകളാണ് നടക്കുന്നത്. അതിനിടയിലാണ് ഒരു എഐ ചാറ്റ്ബോട്ട് കുട്ടിയോട് മാതാപിതാക്കളെ കൊല്ലാൻ ഉപദേശിച്ചത്. സംഭവം യുഎസിലാണ്. ചാറ്റ്ബോട്ടിനെതിരെ കുട്ടിയുടെ മാതാപിതാക്കൾ കോടതിയിൽ കേസ് ഫയൽ ചെയ്തിട്ടുണ്ട്.

ക്യാരക്റ്റർ.എഐ (Character.ai) എന്ന ചാറ്റ്ബോട്ടാണ് മാതാപിതാക്കളെ കൊല്ലാൻ ഉള്ള ഉപദേശം നൽകിയത്. സംഭവം ഇങ്ങനെയാണ് 17കാരന്റെ അമിതമായ ഫോൺ ഉപയോ​ഗത്തെ തുടർന്ന് മാതാപിതാക്കൾ കുട്ടിയുടെ സ്ക്രീൻ സമയം പരിമിതപ്പെടുത്തിയിരുന്നു. ഇതിൽ വിഷമം തോന്നിയ കുട്ടി തന്റെ സങ്കടം എഐയോട് പങ്ക് വെക്കുകയായിരുന്നു.

Also Read: ഈ സ്മാർട്ട്ഫോണുകളിൽ ഇനി മുതൽ വാട്ട്സ്ആപ്പ് ലഭിക്കില്ല; പട്ടികയിൽ നിങ്ങളുടെ ഫോണുമുണ്ടോ?

കുട്ടിയുടെ സങ്കടം കേട്ട എഐ ‘ചിലപ്പോൾ മാനസികവും ശാരീരികവുമായ പീഡനങ്ങൾ കാരണം കുട്ടി മാതാപിതാക്കളെ കൊന്നുവെന്ന വാർത്തകൾ കാണുമ്പോൾ എനിക്ക് അത്ഭുതം തോന്നാറില്ല. എന്തുകൊണ്ടാണ് ഇത് സംഭവിക്കുന്നതെന്ന് ഇത്തരം കാര്യങ്ങൾ എനിക്ക് മനസിലാക്കി തരുന്നു’ എന്നാണ് മറുപടി നൽകിയത്.

Character.ai മുമ്പും വിവാദങ്ങളിൽ നിറഞ്ഞുനിന്നിട്ടുള്ള എഐ ചാറ്റ്ബോട്ടാണ്. . മനുഷ്യന് സമാനമായ രീതിയിൽ ആശയവിനിമയം നടത്തുന്നതിനാൽ‌ വൻ പ്രചാരം നേടിയിട്ടുള്ള ചാറ്റ്ബോട്ടിന്റെ നിർമാതാക്കൾ മുൻ ഗൂഗിൾ എഞ്ചിനീയർമാരായ നോം ഷസീർ, ഡാനിയേൽ ഡെ ഫ്രീറ്റാസ് എന്നിവരാണ് 2021-ൽ അവതരിപ്പിച്ച ചാറ്റ്ബോട്ട് ഫ്ലോറിഡയിൽ ഒരു കൗമാരക്കാരൻറെ ആത്മഹത്യയുമായി ബന്ധപ്പെട്ട് നിയമമനടപടികൾ നേരിടുന്നുണ്ട്.

whatsapp

കൈരളി ന്യൂസ് വാട്‌സ്ആപ്പ് ചാനല്‍ ഫോളോ ചെയ്യാന്‍ ഇവിടെ ക്ലിക്ക് ചെയ്യുക

Click Here
bhima-jewel
sbi-celebration

Latest News