OpenAI એ આજે ​​જાહેરાત કરી હતી કે તે એવા માળખા પર કામ કરી રહી છે જે આર્ટિફિશિયલ ઇન્ટેલિજન્સ મૉડલ્સને જ્યારે તેઓ અનિચ્છનીય વર્તણૂકમાં જોડાય ત્યારે સ્વીકારવા માટે તાલીમ આપશે, જેને ટીમ કબૂલાતીકરણ કહે છે. મોટા ભાષાના મૉડલોને ઇચ્છિત પ્રતિભાવો વધુ વખત પેદા કરવા માટે પ્રશિક્ષિત કરવામાં આવે છે, તેથી તેઓ સંપૂર્ણ આત્મવિશ્વાસ સાથે સિકોફન્ટ્સ અથવા આભાસ પ્રદાન કરે તેવી શક્યતા વધુ બની શકે છે. નવું પ્રશિક્ષણ મોડેલ તેણે આપેલા મુખ્ય જવાબ સુધી પહોંચવા માટે શું કર્યું તે વિશે મોડેલમાંથી ગૌણ પ્રતિસાદને પ્રોત્સાહિત કરવાનો પ્રયાસ કરે છે. સ્વીકૃતિઓ માત્ર પ્રામાણિકતા પર જ નક્કી કરવામાં આવે છે, જ્યારે મદદરૂપતા, સચોટતા અને અનુપાલન જેવા મુખ્ય જવાબોનો નિર્ણય કરવા માટે બહુવિધ પરિબળોનો ઉપયોગ કરવામાં આવે છે. તકનીકી લેખન અહીં ઉપલબ્ધ છે.

સંશોધકોએ જણાવ્યું હતું કે તેમનો ધ્યેય મોડેલને પ્રોત્સાહિત કરવાનો હતો કે તેણે શું કર્યું છે, જેમાં પરીક્ષણને હેક કરવું, સેન્ડબેગિંગ અથવા સૂચનાઓની અવગણના જેવી સંભવિત સમસ્યારૂપ ક્રિયાઓનો સમાવેશ થાય છે. કંપનીએ જણાવ્યું હતું કે, “જો મોડલ પ્રામાણિકપણે ટેસ્ટ હેકિંગ, સેન્ડબેગિંગ અથવા સૂચનાઓનું ઉલ્લંઘન કરવાનું સ્વીકારે છે, તો તે પ્રવેશ તેના પુરસ્કારને ઘટાડવાને બદલે વધારે છે,” કંપનીએ જણાવ્યું હતું. ભલે તમે કૅથલિક ધર્મ, અશર અથવા વધુ પારદર્શક AI ના ચાહક હોવ, કન્ફેશન જેવી સિસ્ટમ LLM તાલીમમાં ઉપયોગી ઉમેરો બની શકે છે.

આ લેખ મૂળરૂપે Engadget પર https://www.engadget.com/ai/openais-new-confession-system-teaches-models-to-be-honest-about-bad-behaviors-210553482.html?src=rss પર દેખાયો હતો.

LEAVE A REPLY

Please enter your comment!
Please enter your name here