AI ની ભૂલને કારણે ICU માં દાખલ, ChatGPT ની સલાહથી તબિયત બગડી
આજકાલ આર્ટિફિશિયલ ઇન્ટેલિજન્સ (AI) નો ઉપયોગ ઝડપથી વધી રહ્યો છે. લોકો નાની-મોટી માહિતી માટે ગૂગલ, ચેટબોટ અથવા ચેટજીપીટી જેવા સાધનોનો ઉપયોગ કરે છે. પરંતુ આ આદત ક્યારેક ખતરનાક સાબિત થઈ શકે છે. અમેરિકામાં એક કિસ્સો પ્રકાશમાં આવ્યો છે, જેમાં એક વ્યક્તિ AI ની સલાહનું પાલન કર્યા પછી એટલી ગંભીર સ્થિતિમાં પહોંચી ગઈ કે તેને ICU માં દાખલ થવું પડ્યું.
AI ની ખતરનાક સલાહ
આ સ્વાસ્થ્ય પ્રત્યે સભાન વ્યક્તિ ઘણીવાર ટેબલ સોલ્ટના ગેરફાયદા વિશે વાંચતો હતો. એક દિવસ તેણે ChatGPT ને પૂછ્યું – મીઠાની જગ્યાએ શું વાપરી શકાય? AI એ ઘણા વિકલ્પો સૂચવ્યા, જેમાંથી એક સોડિયમ બ્રોમાઇડ હતો. ચેટબોટે કહ્યું કે તે ક્લોરાઇડનો વિકલ્પ છે, પરંતુ ચેતવણી આપી ન હતી કે તે મનુષ્યો માટે ઝેરી હોઈ શકે છે.
તે વ્યક્તિએ લગભગ ત્રણ મહિના સુધી ડૉક્ટરને પૂછ્યા વિના સોડિયમ બ્રોમાઇડનું સેવન કરવાનું શરૂ કર્યું. શરૂઆતમાં બધું બરાબર હતું, પરંતુ ધીમે ધીમે તેનું સ્વાસ્થ્ય બગડવા લાગ્યું – મૂંઝવણ, વિચિત્ર વિચારો અને લોકો પર શંકા જેવી માનસિક સમસ્યાઓ શરૂ થઈ. સ્થિતિ એટલી બગડી ગઈ કે તેને લાગ્યું કે તેનો પાડોશી તેને ઝેર આપી રહ્યો છે.
ખતરનાક અસરો અને સારવાર
સોડિયમ બ્રોમાઇડનો ઉપયોગ પહેલા ઊંઘ અને ચિંતાની દવાઓમાં થતો હતો, પરંતુ તેની ગંભીર આડઅસરોને કારણે દાયકાઓ પહેલા માનવીઓમાં તેનો ઉપયોગ બંધ કરી દેવામાં આવ્યો હતો. હવે તે મોટે ભાગે પશુચિકિત્સા અને ઔદ્યોગિક ઉત્પાદનોમાં જોવા મળે છે.
તપાસ પછી, ડોકટરોએ શોધી કાઢ્યું કે વ્યક્તિ બ્રોમાઇડ ઝેરી અસરનો ભોગ બન્યો હતો. તેને નસમાં પ્રવાહી અને એન્ટિસાઈકોટિક દવાઓ આપવામાં આવી હતી. ત્રણ અઠવાડિયાની સારવાર પછી, તે સ્વસ્થ થઈને ઘરે પરત ફરવામાં સફળ રહ્યો.
નિષ્ણાતોની ચેતવણી
ડોકટરો કહે છે – આ કેસ દર્શાવે છે કે AI માંથી મેળવેલી માહિતી હંમેશા સંપૂર્ણ અથવા સલામત હોતી નથી, ખાસ કરીને આરોગ્ય અને દવાઓના સંદર્ભમાં. ઇન્ટરનેટ અને AI માંથી મેળવેલી માહિતી પ્રારંભિક સમજણ માટે હોઈ શકે છે, પરંતુ સારવારનો આધાર નથી. આરોગ્ય સંબંધિત બાબતોમાં, ડૉક્ટરની સલાહ હંમેશા જરૂરી છે.