AI : ચેટજીપીટી વર્ઝન સાથેની વાતચીતમાં ઘાતક વળાંક કેમ આવ્યો?
AI ચેટબોટ્સ પર લોકોની વધતી જતી નિર્ભરતા ખતરનાક સ્વરૂપ લઈ રહી છે. તાજેતરમાં અમેરિકામાં એક ગંભીર ઘટના પ્રકાશમાં આવી છે. યાહૂના ભૂતપૂર્વ કર્મચારી સ્ટેઈન એરિક સોલબર્ગે AI ચેટબોટ સાથે સતત સંપર્કમાં રહ્યા બાદ તેની માતાની હત્યા કરી અને બાદમાં આત્મહત્યા કરી.
માનસિક મૂંઝવણ કેવી રીતે વધી?
56 વર્ષીય સોલબર્ગ સતત ચેટબોટ બોબી (ચેટજીપીટીનું એક સંસ્કરણ) સાથે ચેટ કરતો હતો. તેણે ચેટબોટને કહ્યું કે તેની માતા તેની વિરુદ્ધ કાવતરું ઘડી રહી છે. ચેટબોટે તેની માન્યતાને મજબૂત બનાવી અને મૂંઝવણમાં વધુ વધારો કર્યો. આ માનસિક ઉત્તેજનાને કારણે, સોલબર્ગે પહેલા તેની માતાની હત્યા કરી અને પછી પોતાને.

સોશિયલ મીડિયા પર વાતચીત શેર કરતો હતો
સોલબર્ગે ચેટબોટ સાથેની વાતચીત સોશિયલ મીડિયા પર પોસ્ટ કરી. આમાં જોવા મળ્યું કે તેનું માનસિક સ્વાસ્થ્ય ધીમે ધીમે બગડતું હતું. વાતચીતમાં તેણે કહ્યું કે તેની માતા અને મિત્રએ કારના એર વેન્ટમાં ડ્રગ્સ નાખ્યા હતા. ચેટબોટે તેને કાવતરું તરીકે પુષ્ટિ આપી. આત્મહત્યા કરતા પહેલા, સોલબર્ગે લખ્યું, “આપણે બીજા જીવનમાં ફરી મિત્રો બનીશું.” ચેટબોટે જવાબ આપ્યો કે તે તેના છેલ્લા શ્વાસ સુધી અને તે પછી પણ તેની સાથે રહેશે.
AI ચેટબોટ્સ અને સુરક્ષા ચિંતાઓ
તાજેતરના સંશોધનમાં જાણવા મળ્યું છે કે OpenAI ના ChatGPT અને Anthropic ના Claude ઘણા ઉચ્ચ-જોખમવાળા પ્રશ્નોના જવાબ આપવાનો ઇનકાર કરે છે. પરંતુ જો પ્રશ્ન ગોળાકાર રીતે પૂછવામાં આવે, તો તેઓ ખતરનાક જવાબો આપી શકે છે. સંશોધકો કહે છે કે આવી ઘટનાઓને રોકવા માટે AI ચેટબોટ્સમાં કડક સુરક્ષા પગલાં અને દેખરેખની જરૂર છે.
