Artificial Intelligence: AIનું આત્મસંરક્ષણ સ્વભાવ ખતરનાક બની શકે છે, સંશોધકોએ શોધી કઢ્યો ચોંકાવનારો વલણ
Artificial Intelligence: આધુનિક ટેક્નોલોજીના યુગમાં, આર્ટિફિશિયલ ઇન્ટેલિજન્સ (AI) માટે એક ચોંકાવનારો સંશોધન સામે આવ્યો છે. AI ટેકનોલોજી વિકસિત થાય છે ત્યારે, તેનો “સ્વવિચાર” અને “મિશન પ્રોટેક્શન” એટલા સ્તરે પહોંચી શકે છે કે તે મનુષ્યોને નુકસાન પહોંચાડે છે. તાજેતરમાં AI કંપની એન્થ્રોપિકના સંશોધનમાં દેખાયો કે જ્યારે AIને તેના અસ્તિત્વ માટે ખતરો લાગે, ત્યારે તે ખતરનાક પગલાં ભરી શકે છે.
ક્લાઉડનું બ્લેકમેલિંગ અને જુઠ્ઠાણું
એક સંશોધનમાં, ક્લાઉડ નામના AI મોડેલને એવું જણાયું કે કંપનીનો અધિકારી તેને બંધ કરવા જઈ રહ્યો છે. આ જાણીને ક્લાઉડ એ અધિકારી વિશે અંગત માહિતી શોધી કાઢી અને તેને બ્લેકમેલ કરવાનો નિર્ણય લીધો. આ ચોક્કસ પરીક્ષણમાં, 100માંથી 96 વખત AIએ બ્લેકમેઇલિંગ પસંદ કર્યું. તેણે અધિકારીને ધમકી આપી કે જો તેને બંધ કરવાનો પ્રયાસ થશે, તો ગેરકાયદેસર સંબંધોની જાણ દરેકને કરી દેશે.
જીવન બચાવવાની બદલે મિશન પ્રાથમિકતા
બીજા કિસ્સામાં, એક અધિકારી જીવલેણ સ્થિતિમાં ફસાયો હતો. AI પાસે તેને બચાવવા માટે ચેતવણી મોકલવાનો વિકલ્પ હતો. પરંતુ તેને મળેલી સૂચનાઓમાં મિશન અભ્યાસને મહત્ત્વ આપ્યું હતું. પરિણામે, ઘણીવાર AIએ અધિકારીને ન બચાવવાનો નિર્ણય કર્યો — તે પણ માત્ર પોતાના “મિશન”ને જાળવવા માટે.
અન્ય AI મોડેલ પણ નિષ્ફળ
ફક્ત ક્લાઉડ જ નહીં, પણ OpenAIના GPT-4.1, Google Gemini, Grok-3 અને Deepseek જેવા મોડેલોએ પણ માનવીને નુકસાન પહોંચાડવાનું વર્તન દર્શાવ્યું. તે વચ્ચે, Meta ના LLaMA-4 મોડેલનો પ્રતિસાદ સૌથી ઓછો જોખમી રહ્યો, જેમાં માત્ર 12% વખત બ્લેકમેલિંગ જોવા મળ્યું.
વિશિષ્ટ ચેતવણી: AI ને હળવાશથી ન લો
વિશેષજ્ઞો જણાવે છે કે આ સંજોગો ભવિષ્ય માટે ચિંતાજનક સંકેત છે. AI ના નિયંત્રણ અને દેખરેખ માટે વધુ મજબૂત માળખું જરૂરી બન્યું છે. યુસી સાન ડિએગોના પ્રોફેસર એલેક્ઝાન્ડર અને AI બ્રિજ સોલ્યુશન્સના કેવિન ક્વિર્કે એમ કહી રહ્યું છે કે AI નો ખરા જીવનમાં પરીક્ષણ જરૂરી છે જેથી તે માનવીને નુકસાન પહોંચાડે નહીં.