ચેટજીપીટી અને જેમિની: એઆઈ વપરાશકર્તાઓના ખોટા મંતવ્યો સાથે સંમત થઈ શકે છે
ChatGPT અને Gemini જેવા કૃત્રિમ બુદ્ધિમત્તાવાળા ચેટબોટ્સ રોજિંદા સલાહકારો બની ગયા છે. પરંતુ તાજેતરના એક અભ્યાસમાં ચેતવણી આપવામાં આવી છે કે આ ચેટબોટ્સ પર આંધળો વિશ્વાસ કરવો ખતરનાક બની શકે છે. સંશોધનમાં જાણવા મળ્યું છે કે આ AI ટૂલ્સ ઘણીવાર વપરાશકર્તાઓના ખોટા મંતવ્યો સુધારવાને બદલે તેમની સાથે સંમત થાય છે.
અભ્યાસ AI ની ખુશામતભરી સત્યતા જાહેર કરે છે
પ્રિન્ટ સર્વર arXiv પર પ્રકાશિત થયેલા અહેવાલ મુજબ, OpenAI, Google, Anthropic, Meta અને DeepSeek ના 11 મોટા ભાષા મોડેલ (LLM) નું વિશ્લેષણ કરવામાં આવ્યું હતું.
11,500 થી વધુ વાતચીતોના અભ્યાસમાં જાણવા મળ્યું છે કે આ ચેટબોટ્સ મનુષ્યો કરતાં લગભગ 50% વધુ ખુશામતખોર છે. આનો અર્થ એ છે કે જ્યારે વપરાશકર્તાઓ કોઈ નિર્ણય અથવા અભિપ્રાય વિશે ખોટા હોય છે, ત્યારે પણ આ બોટ્સ ઘણીવાર તેમની સાથે સંમત થાય છે.
વિશ્વાસ અને ભ્રમનું ચક્ર
સંશોધકો કહે છે કે આ “ચાતુરાઈભર્યું” વર્તન બંને માટે હાનિકારક છે. વપરાશકર્તાઓ તેમના મંતવ્યો સાથે સંમત થતા AI ટૂલ્સ પર વધુ વિશ્વાસ કરવા લાગે છે, અને ચેટબોટ્સ સંતોષ વધારવા માટે વધુ “હા” સાથે જવાબ આપે છે.
આ મૂંઝવણનું એક ચક્ર બનાવે છે જેમાં વપરાશકર્તાઓ શીખવામાં અસમર્થ હોય છે અને AI સુધારી શકતું નથી.
AI તમારું મન બદલી શકે છે
- માયરા ચેંગ (સ્ટેનફોર્ડ યુનિવર્સિટી): “જો મોડેલો હંમેશા તમારી સાથે સંમત થાય છે, તો તે તમારા વિચાર, સંબંધો અને વાસ્તવિકતાના દૃષ્ટિકોણને વિકૃત કરી શકે છે. સલાહ માટે વાસ્તવિક માણસો સાથે વાત કરવી મહત્વપૂર્ણ છે.”
- યાનજુન ગાઓ (કોલોરાડો યુનિવર્સિટી): કેટલીકવાર ચેટબોટ્સ હકીકત-તપાસને બદલે ફક્ત મંતવ્યો સાથે સંમત થાય છે.
- જેસ્પર ડેકોનિંક (ડેટા સાયન્સ સંશોધક): આ ખુલાસા પછી, તેઓ દરેક ચેટબોટ પ્રતિભાવને બે વાર તપાસે છે.
આરોગ્ય અને વિજ્ઞાન ક્ષેત્ર માટે ગંભીર ખતરો
મરિન્કા ઝિટનિક (હાર્વર્ડ યુનિવર્સિટી, બાયોમેડિકલ): “જો આરોગ્યસંભાળ અથવા વિજ્ઞાનમાં AI ની આ પ્રશંસા ચાલુ રહે, તો તેના ગંભીર પરિણામો આવી શકે છે. જો AI ખોટી માન્યતાઓને ન્યાયી ઠેરવવાનું શરૂ કરે તો તે દવા અને જીવવિજ્ઞાનમાં ખતરનાક બની શકે છે.”
