അടുത്ത കാലം വരെ, ഓപ്പൺഎഐ അതിന്റെ മോഡലുകൾ “ആയുധ വികസനം, സൈനികം, യുദ്ധം എന്നിവയുൾപ്പെടെ ശാരീരിക ഉപദ്രവത്തിന്റെ ഉയർന്ന അപകടസാധ്യതയുള്ള” പ്രവർത്തനങ്ങൾക്ക് ഉപയോഗിക്കാൻ അനുവദിച്ചിരുന്നില്ല. ഇപ്പോൾ ‘മിലിട്ടറി’, ‘യുദ്ധം’ എന്നീ വാക്കുകൾ നീക്കം ചെയ്തു. ഇതൊരു പതിവ് അപ് ഡേറ്റാണോ, അതോ നമ്മൾ വിഷമിക്കേണ്ടതുണ്ടോ?
OpenAI-യിലെ നയമാറ്റം എന്താണ്?
അടുത്ത കാലം വരെ, ആയുധ വികസനത്തിനും സൈനികത്തിനും യുദ്ധത്തിനും ഓപ്പൺഎഐ അതിന്റെ മാതൃകകൾ ഉപയോഗിക്കുന്നത് വ്യക്തമായി നിരോധിച്ചിരുന്നു. എന്നാൽ ജനുവരി 10 ന് ഇത് നയം പരിഷ്കരിച്ചു. “ആയുധങ്ങൾ വികസിപ്പിക്കുകയോ ഉപയോഗിക്കുകയോ ചെയ്യുക” ഒരു ഉദാഹരണമായി ഉദ്ധരിച്ചുകൊണ്ട് “നിങ്ങളെയോ മറ്റുള്ളവരെയോ ഉപദ്രവിക്കാൻ” അതിന്റെ സേവനം ഉപയോഗിക്കുന്നത് ഇത് തുടരുന്നു, പക്ഷേ ഇന്റർസെപ്റ്റ് ആദ്യം ചൂണ്ടിക്കാണിച്ചതുപോലെ ‘മിലിട്ടറി’, ‘യുദ്ധം’ എന്നീ വാക്കുകൾ നീക്കം ചെയ്തു. സൈബർ സുരക്ഷാ സംരംഭങ്ങൾ ഉൾപ്പെടെ നിരവധി പദ്ധതികളിൽ ഓപ്പൺഎഐ ഇതിനകം പെന്റഗണുമായി പ്രവർത്തിക്കുന്നതിനാൽ, ഈ നിലപാട് മയപ്പെടുത്തുന്നത് സൈന്യത്തിനും യുദ്ധത്തിനും ജിപിടി -4, ചാറ്റ്ജിപിടി എന്നിവ ദുരുപയോഗം ചെയ്യുന്നതിന് കാരണമാകുമെന്ന് ചില കോണുകളിൽ ആശങ്കയുണ്ട്.
ഈ നയമാറ്റത്തിന്റെ സന്ദർഭം എന്താണ്?
ഓപ്പൺ എഐയുടെ ഏറ്റവും വലിയ നിക്ഷേപകനായ മൈക്രോസോഫ്റ്റ് കോർപ്പറേഷന് ഇതിനകം തന്നെ സായുധ സേനയുമായും യുഎസിലെ മറ്റ് സർക്കാർ ശാഖകളുമായും സോഫ്റ്റ്വെയർ കരാറുകളുണ്ട്. അത്യാധുനിക സൈബർ സുരക്ഷാ സംവിധാനങ്ങൾ വികസിപ്പിക്കാൻ സഹായിക്കുന്നതിന് ആന്ത്രോപിക്, ഗൂഗിൾ, മൈക്രോസോഫ്റ്റ്, ഓപ്പൺ എഐ എന്നിവയുമായി സഹകരിക്കുമെന്ന് 2023 സെപ്റ്റംബറിൽ യുഎസ് ഡിഫൻസ് അഡ്വാൻസ്ഡ് റിസർച്ച് പ്രോജക്ട്സ് ഏജൻസി (ഡാർപ) പറഞ്ഞിരുന്നു. ജനുവരി 16 ന് ദാവോസിൽ നടന്ന വേൾഡ് ഇക്കണോമിക് ഫോറത്തിൽ നടന്ന ഒരു അഭിമുഖത്തിൽ ഓപ്പൺഎഐയുടെ ഗ്ലോബൽ അഫയേഴ്സ് വൈസ് പ്രസിഡന്റ് അന്ന മകഞ്ജു മുതിർന്ന ആത്മഹത്യകൾ തടയുന്നതിനുള്ള മാർഗങ്ങളെക്കുറിച്ച് യുഎസ് സർക്കാരുമായി ചർച്ച ആരംഭിച്ചതായി പറഞ്ഞിരുന്നു.
OpenAI-ക്ക് ഇതിനെക്കുറിച്ച് എന്താണ് പറയാനുള്ളത്?
ആളുകളെ ഉപദ്രവിക്കാനോ ആയുധങ്ങൾ വികസിപ്പിക്കാനോ ആശയവിനിമയ നിരീക്ഷണത്തിനോ മറ്റുള്ളവരെ പരിക്കേൽപ്പിക്കാനോ സ്വത്ത് നശിപ്പിക്കാനോ പ്ലാറ്റ്ഫോം ഉപയോഗിക്കാൻ അനുവദിക്കുന്നില്ലെന്ന് ഓപ്പൺഎഐ ടെക്ക്രഞ്ചിനോട് പറഞ്ഞു. എന്നിരുന്നാലും, സൈബർ സുരക്ഷാ ഉപകരണങ്ങൾ വികസിപ്പിക്കുന്നതിനുള്ള ഡാർപയുമായുള്ള പങ്കാളിത്തം പോലുള്ള “ഞങ്ങളുടെ ദൗത്യവുമായി യോജിക്കുന്ന ദേശീയ സുരക്ഷാ ഉപയോഗ കേസുകൾ” ഉണ്ട്.
ആയുധങ്ങൾ നിർമ്മിക്കാൻ ആർട്ടിഫിഷ്യൽ ഇന്റലിജൻസ് ഉപയോഗിക്കാമോ?
ആർട്ടിഫിഷ്യൽ ഇന്റലിജൻസ് പ്രാപ്തമാക്കിയ ‘റോബോട്ട് ജനറൽമാർക്ക്’ ഒടുവിൽ ആണവായുധങ്ങൾ വിക്ഷേപിക്കാൻ കഴിയുമെന്ന് ചിലർ ഭയപ്പെടുന്നു. ഡബ്ല്യുഇഎഫ് അതിന്റെ ഗ്ലോബൽ റിസ്ക് റിപ്പോർട്ട് 2024 ൽ ആർട്ടിഫിഷ്യൽ ഇന്റലിജൻസിന്റെ പ്രതികൂല ഫലങ്ങളെ ഏറ്റവും ഉയർന്ന അപകടസാധ്യതകളിൽ ഒന്നായി കണക്കാക്കുന്നു. 2023 മെയ് 16 ന് ഓപ്പൺഎഐ സിഇഒ സാം ആൾട്ട്മാൻ യുഎസ് സെനറ്റ് ഉപസമിതി യോഗത്തിൽ പറഞ്ഞു, “ഈ സാങ്കേതികവിദ്യ തെറ്റിയാൽ, അത് തികച്ചും തെറ്റായിരിക്കും…” ഉചിതമായ ഗാർഡ് റെയിലുകൾ സ്ഥാപിച്ചില്ലെങ്കിൽ ബയോവെപ്പണുകൾ നിർമ്മിക്കാൻ എഐ മോഡലുകൾ ദുരുപയോഗം ചെയ്യാൻ സാധ്യതയുണ്ടെന്ന് 2023 മെയ് 28 ന് ആന്ത്രോപിക് സിഇഒ ഡാരിയോ അമോഡി മറ്റൊരു ഉപസമിതിയിൽ സാക്ഷ്യപ്പെടുത്തി.
ഈ പ്രശ്നം പരിഹരിക്കാൻ കൂടുതൽ നിയമങ്ങൾ ആവശ്യമുണ്ടോ?
ആർട്ടിഫിഷ്യൽ ജനറൽ ഇന്റലിജൻസ് (എജിഐ) അല്ലെങ്കിൽ ആർട്ടിഫിഷ്യൽ സൂപ്പർ ഇന്റലിജൻസ് (എഎസ്ഐ) എന്ന് വിളിക്കപ്പെടുന്ന ആർട്ടിഫിഷ്യൽ ഇന്റലിജൻസ് പവർ മെഷീനുകൾ ക്രമേണ മനുഷ്യരെപ്പോലെ ചിന്തിക്കുകയും പ്രവർത്തിക്കുകയും ചെയ്യുമെന്ന് ചില വിദഗ്ധർ വിശ്വസിക്കുന്നു. റിസ്ക് അടിസ്ഥാനമാക്കിയുള്ള യൂറോപ്യൻ യൂണിയൻ ആർട്ടിഫിഷ്യൽ ഇന്റലിജൻസ് നിയമത്തിന്റെ കരട് സംബന്ധിച്ച് വിശാലമായ ധാരണയുണ്ട്; ജി -7 ന്റെ മാർഗ്ഗനിർദ്ദേശ തത്വങ്ങളും ആർട്ടിഫിഷ്യൽ ഇന്റലിജൻസ് പെരുമാറ്റച്ചട്ടവും; യുഎസ് ആര് ട്ടിഫിഷ്യല് ഇന്റലിജന് സ് ബില്ലും ശരിയായ ദിശയിലേക്കുള്ള ചുവടുവയ്പ്പുകളാണ്. ആർട്ടിഫിഷ്യൽ ഇന്റലിജൻസിനെയും ഇടനിലക്കാരെയും നിയന്ത്രിക്കുന്നതിനായി ഇന്ത്യയും ഉടൻ ഡിജിറ്റൽ ഇന്ത്യ നിയമം അവതരിപ്പിക്കുമെന്ന് പ്രതീക്ഷിക്കുന്നു. ആർട്ടിഫിഷ്യൽ ഇന്റലിജൻസ് ഭയം നവീകരണത്തെ തടസ്സപ്പെടുത്തരുത്.
