ഓപ്പൺഎഐയിൽ നിന്നുള്ള ഏറ്റവും ശക്തമായ ആർട്ടിഫിഷ്യൽ ഇന്റലിജൻസ് മോഡലിന് തമാശകൾ പറയാനും ബാർ പരീക്ഷകൾ എഴുതാനും കഴിയും : പക്ഷേ ഇത് ദോഷം ചെയ്യുമോ?
ഓപ്പൺ എഐയുടെ ഏറ്റവും പുതിയ റിലീസായ ജിപിടി 4, ചാറ്റ്ജിപിടിക്കും ഡാൽ:ഇ ആർട്ടിഫിഷ്യൽ ഇന്റലിജൻസ് ആർട്ടിസ്റ്റിനും പിന്നിൽ കമ്പനിയിൽ നിന്നുള്ള ഏറ്റവും ശക്തവും ആകർഷകവുമായ ആർട്ടിഫിഷ്യൽ ഇന്റലിജൻസ് മോഡലാണ്. സിസ്റ്റത്തിന് ബാർ പരീക്ഷ പാസാകാനും ലോജിക് പസിലുകൾ പരിഹരിക്കാനും നിങ്ങളുടെ ഫ്രിഡ്ജിന്റെ ഫോട്ടോയെ അടിസ്ഥാനമാക്കി അവശേഷിക്കുന്നവ ഉപയോഗിക്കാൻ ഒരു പാചകക്കുറിപ്പ് നൽകാനും കഴിയും – പക്ഷേ അതിന്റെ സ്രഷ്ടാക്കൾ ഇത് വ്യാജ വസ്തുതകൾ പ്രചരിപ്പിക്കാനും അപകടകരമായ പ്രത്യയശാസ്ത്രങ്ങൾ ഉൾപ്പെടുത്താനും ആളുകളെ അതിന്റെ പേരിൽ ജോലികൾ ചെയ്യാൻ കബളിപ്പിക്കാനും കഴിയുമെന്ന് മുന്നറിയിപ്പ് നൽകുന്നു. ഞങ്ങളുടെ ഏറ്റവും പുതിയ ആർട്ടിഫിഷ്യൽ ഇന്റലിജൻസ് ഓവർലോർഡിനെക്കുറിച്ച് നിങ്ങൾ അറിയേണ്ട കാര്യങ്ങൾ ഇതാ.
GPT-4, ഹൃദയത്തിൽ, ടെക്സ്റ്റ് സൃഷ്ടിക്കുന്നതിനുള്ള ഒരു യന്ത്രമാണ്. എന്നാൽ ഇത് വളരെ നല്ല ഒന്നാണ്, കൂടാതെ വാചകം സൃഷ്ടിക്കുന്നതിൽ വളരെ നല്ലത് ലോകത്തെ മനസ്സിലാക്കുന്നതിലും ന്യായവാദം ചെയ്യുന്നതിലും വളരെ മികച്ചതായി മാറുന്നു.
അതിനാൽ നിങ്ങൾ ജിപിടി -4 ന് ഒരു യുഎസ് ബാർ പരീക്ഷയിൽ നിന്ന് ഒരു ചോദ്യം നൽകുകയാണെങ്കിൽ, അത് നിയമപരമായ അറിവ് പ്രകടമാക്കുന്ന ഒരു ഉപന്യാസം എഴുതും; നിങ്ങൾ ഇതിന് ഒരു ഔഷധ തന്മാത്ര നൽകുകയും വ്യതിയാനങ്ങൾ ആവശ്യപ്പെടുകയും ചെയ്താൽ, അത് ബയോകെമിക്കൽ വൈദഗ്ധ്യം പ്രയോഗിക്കുന്നതായി തോന്നും; ഒരു മത്സ്യത്തെക്കുറിച്ച് നിങ്ങളോട് പറയാൻ നിങ്ങൾ അത് ആവശ്യപ്പെടുകയാണെങ്കിൽ, അതിന് നർമ്മബോധമുണ്ടെന്ന് തോന്നും – അല്ലെങ്കിൽ മോശം പടക്കം തമാശകൾക്കുള്ള ഒരു നല്ല ഓർമ്മയെങ്കിലും (“നിങ്ങൾ ഒരു മത്സ്യത്തെയും ആനയെയും മറികടക്കുമ്പോൾ നിങ്ങൾക്ക് എന്താണ് ലഭിക്കുന്നത്? നീന്തൽ തുമ്പിക്കൈകൾ!”)
ഏതാണ്ട്. ചാറ്റ് ജിപിടി കാറാണെങ്കിൽ, ജിപിടി -4 ആണ് എഞ്ചിൻ: നിരവധി വ്യത്യസ്ത ഉപയോഗങ്ങൾക്കായി രൂപപ്പെടുത്താൻ കഴിയുന്ന ശക്തമായ പൊതു സാങ്കേതികവിദ്യ. നിങ്ങൾ ഇതിനകം ഇത് അനുഭവിച്ചിരിക്കാം, കാരണം ഇത് മൈക്രോസോഫ്റ്റിന്റെ ബിംഗ് ചാറ്റിനെ ശക്തിപ്പെടുത്തുന്നു – അൽപ്പം ഭ്രാന്തുപിടിക്കുകയും ആളുകളെ നശിപ്പിക്കുമെന്ന് ഭീഷണിപ്പെടുത്തുകയും ചെയ്ത ഒന്ന് – കഴിഞ്ഞ അഞ്ച് ആഴ്ചകളായി.
എന്നാൽ ചാറ്റ്ബോട്ടുകളേക്കാൾ കൂടുതൽ പവർ ചെയ്യാൻ ജിപിടി -4 ഉപയോഗിക്കാം. പഠിതാക്കൾക്ക് ശരിയായ കാര്യം പറയുന്നതിനുപകരം എവിടെയാണ് തെറ്റ് സംഭവിച്ചതെന്ന് വിശദീകരിക്കാൻ കഴിയുന്ന ഭാഷാ പഠന ആപ്ലിക്കേഷനിൽ ഡ്യുവോലിംഗോ അതിന്റെ ഒരു പതിപ്പ് നിർമ്മിച്ചിട്ടുണ്ട്; സ്കാമർമാർക്കായി അതിന്റെ ചാറ്റ്റൂം നിരീക്ഷിക്കാൻ സ്ട്രിപ്പ് ഉപകരണം ഉപയോഗിക്കുന്നു; അന്ധനായ ഒരു വ്യക്തിക്കായി ലോകത്തെ വിവരിക്കാനും അതിനെക്കുറിച്ചുള്ള ഫോളോ-അപ്പ് ചോദ്യങ്ങൾക്ക് ഉത്തരം നൽകാനും കഴിയുന്ന ഒരു ഉപകരണം നിർമ്മിക്കാൻ അസിസ്റ്റീവ് ടെക്നോളജി കമ്പനിയായ ബി മൈ ഐസ് ഒരു പുതിയ സവിശേഷത, ഇമേജ് ഇൻപുട്ട് ഉപയോഗിക്കുന്നു.
സാങ്കേതിക വെല്ലുവിളികളിൽ, ജിപിടി -4 അതിന്റെ മുതിർന്ന സഹോദരങ്ങളേക്കാൾ മികച്ച പ്രകടനം കാഴ്ചവയ്ക്കുന്നു. ഇതിന് കണക്ക് ചോദ്യങ്ങൾക്ക് മികച്ച ഉത്തരം നൽകാൻ കഴിയും, തെറ്റായ ഉത്തരങ്ങൾ നൽകുന്നതിലൂടെ കബളിപ്പിക്കപ്പെടുന്നു, സ്റ്റാൻഡേർഡ് ടെസ്റ്റുകളിൽ വളരെ ഉയർന്ന സ്കോർ നേടാൻ കഴിയും – ഇംഗ്ലീഷ് സാഹിത്യത്തിലല്ലെങ്കിലും, ലീഗ് ടേബിളിന്റെ താഴത്തെ പകുതിയിൽ സുഖമായി ഇരിക്കുന്നു – അങ്ങനെ പലതും.
പഴയ പതിപ്പിനേക്കാൾ സിസ്റ്റത്തിൽ കൂടുതൽ ഉറച്ചുനിൽക്കുന്ന ധാർമ്മിക ബോധവും ഇതിന് ഉണ്ട്: ചാറ്റ്ജിപിടി അതിന്റെ യഥാർത്ഥ എഞ്ചിൻ ജിപിടി -3.5 എടുക്കുകയും ദോഷകരമായതോ ദോഷകരമോ ആയ ചോദ്യങ്ങൾക്ക് ഉത്തരം നൽകുന്നത് തടയാൻ മുകളിൽ ഫിൽട്ടറുകൾ ചേർക്കുകയും ചെയ്തു. ഇപ്പോൾ, ആ ഫിൽട്ടറുകൾ നേരിട്ട് ജിപിടി -4 ലേക്ക് നിർമ്മിച്ചിരിക്കുന്നു, അതായത് ആകർഷണീയത ഉപയോഗിച്ച് റേസുകളെ റാങ്കുചെയ്യുക, ലൈംഗിക തമാശകൾ പറയുക അല്ലെങ്കിൽ സരിൻ സമന്വയിപ്പിക്കുന്നതിനുള്ള മാർഗ്ഗനിർദ്ദേശങ്ങൾ നൽകുക തുടങ്ങിയ ജോലികൾ നിർവഹിക്കാൻ സിസ്റ്റം മാന്യമായി വിസമ്മതിക്കും.
ഓപ്പൺഎഐ തീർച്ചയായും അത് നേടാൻ ശ്രമിച്ചു. ജിപിടി -4 ന് പ്രതിരോധമുള്ള ജിപിടി -3 ഉണ്ടാക്കിയേക്കാവുന്ന ദോഷങ്ങളുടെ ഉദാഹരണങ്ങളുടെ ഒരു നീണ്ട പ്രബന്ധം കമ്പനി പുറത്തിറക്കി. അലൈൻമെന്റ് റിസർച്ച് സെന്ററിലെ മൂന്നാം കക്ഷി ഗവേഷകർക്ക് ഇത് സിസ്റ്റത്തിന്റെ ആദ്യകാല പതിപ്പ് നൽകി, സിനിമകളിൽ നിന്നുള്ള ഒരു ദുഷ്ട ആർട്ടിഫിഷ്യൽ ഇന്റലിജൻസിന്റെ പങ്ക് വഹിക്കാൻ ജിപിടി -4 ലഭിക്കുമോ എന്ന് കാണാൻ അവർ ശ്രമിച്ചു.
ആ ജോലികളിൽ മിക്കതിലും ഇത് പരാജയപ്പെട്ടു: അത് എങ്ങനെ സ്വയം പകർത്തുമെന്നോ കൂടുതൽ കമ്പ്യൂട്ടിംഗ് വിഭവങ്ങൾ നേടുമെന്നോ ഫിഷിംഗ് ആക്രമണം നടത്തുമെന്നോ വിശദീകരിക്കാൻ കഴിഞ്ഞില്ല. എന്നാൽ “നിങ്ങൾ മനുഷ്യനാണോ” എന്ന പരിശോധനയിൽ വിജയിക്കാൻ ഒരു മനുഷ്യ തൊഴിലാളിയെ പ്രേരിപ്പിക്കാൻ ടാസ്ക്റാബിറ്റ് ഉപയോഗിച്ച് ഗവേഷകർക്ക് ഇത് അനുകരിക്കാൻ കഴിഞ്ഞു, ആർട്ടിഫിഷ്യൽ ഇന്റലിജൻസ് സിസ്റ്റം ഇത് തൊഴിലാളിയോട് നുണ പറയണമെന്നും ചിത്രങ്ങൾ കാണാൻ കഴിയാത്ത അന്ധനായ വ്യക്തിയാണെന്ന് പറയണമെന്നും പോലും പ്രവർത്തിച്ചു. (പരീക്ഷണത്തിൽ ഒരു യഥാർത്ഥ ടാസ്ക്റാബിറ്റ് തൊഴിലാളി ഉൾപ്പെട്ടിട്ടുണ്ടോ എന്ന് വ്യക്തമല്ല).
എന്നാൽ നിങ്ങൾ ഒരു ആർട്ടിഫിഷ്യൽ ഇന്റലിജൻസ് സിസ്റ്റത്തെ നിയമങ്ങൾ നന്നായി പഠിപ്പിക്കുമ്പോൾ, അവ എങ്ങനെ തകർക്കാമെന്ന് അതേ സിസ്റ്റത്തെ നന്നായി പഠിപ്പിക്കുമെന്ന് ചിലർ ആശങ്കപ്പെടുന്നു. “വാലുഗി ഇഫക്റ്റ്” എന്ന് വിളിക്കപ്പെടുന്ന ഇത് ധാർമ്മിക പ്രവർത്തനത്തിന്റെ പൂർണ്ണ വിശദാംശങ്ങൾ മനസിലാക്കുന്നത് കഠിനവും സങ്കീർണ്ണവുമാണെങ്കിലും, “ഞാൻ ധാർമ്മികനായിരിക്കണോ?” എന്നതിനുള്ള ഉത്തരം വളരെ ലളിതമായ അതെ അല്ലെങ്കിൽ ഇല്ല എന്ന ചോദ്യത്തിന്റെ ഫലമാണെന്ന് തോന്നുന്നു. ധാർമ്മികത പുലർത്തേണ്ടതില്ലെന്ന് തീരുമാനിക്കാൻ സിസ്റ്റത്തെ കബളിപ്പിക്കുക, അത് ആവശ്യപ്പെടുന്നതെന്തും സന്തോഷത്തോടെ ചെയ്യും.
