OpenAI એ આજે જાહેરાત કરી હતી કે તે એવા માળખા પર કામ કરી રહી છે જે આર્ટિફિશિયલ ઇન્ટેલિજન્સ મૉડલ્સને જ્યારે તેઓ અનિચ્છનીય વર્તણૂકમાં જોડાય ત્યારે સ્વીકારવા માટે તાલીમ આપશે, જેને ટીમ કબૂલાતીકરણ કહે છે. મોટા ભાષાના મૉડલોને ઇચ્છિત પ્રતિભાવો વધુ વખત પેદા કરવા માટે પ્રશિક્ષિત કરવામાં આવે છે, તેથી તેઓ સંપૂર્ણ આત્મવિશ્વાસ સાથે સિકોફન્ટ્સ અથવા આભાસ પ્રદાન કરે તેવી શક્યતા વધુ બની શકે છે. નવું પ્રશિક્ષણ મોડેલ તેણે આપેલા મુખ્ય જવાબ સુધી પહોંચવા માટે શું કર્યું તે વિશે મોડેલમાંથી ગૌણ પ્રતિસાદને પ્રોત્સાહિત કરવાનો પ્રયાસ કરે છે. સ્વીકૃતિઓ માત્ર પ્રામાણિકતા પર જ નક્કી કરવામાં આવે છે, જ્યારે મદદરૂપતા, સચોટતા અને અનુપાલન જેવા મુખ્ય જવાબોનો નિર્ણય કરવા માટે બહુવિધ પરિબળોનો ઉપયોગ કરવામાં આવે છે. તકનીકી લેખન અહીં ઉપલબ્ધ છે.
સંશોધકોએ જણાવ્યું હતું કે તેમનો ધ્યેય મોડેલને પ્રોત્સાહિત કરવાનો હતો કે તેણે શું કર્યું છે, જેમાં પરીક્ષણને હેક કરવું, સેન્ડબેગિંગ અથવા સૂચનાઓની અવગણના જેવી સંભવિત સમસ્યારૂપ ક્રિયાઓનો સમાવેશ થાય છે. કંપનીએ જણાવ્યું હતું કે, “જો મોડલ પ્રામાણિકપણે ટેસ્ટ હેકિંગ, સેન્ડબેગિંગ અથવા સૂચનાઓનું ઉલ્લંઘન કરવાનું સ્વીકારે છે, તો તે પ્રવેશ તેના પુરસ્કારને ઘટાડવાને બદલે વધારે છે,” કંપનીએ જણાવ્યું હતું. ભલે તમે કૅથલિક ધર્મ, અશર અથવા વધુ પારદર્શક AI ના ચાહક હોવ, કન્ફેશન જેવી સિસ્ટમ LLM તાલીમમાં ઉપયોગી ઉમેરો બની શકે છે.
આ લેખ મૂળરૂપે Engadget પર https://www.engadget.com/ai/openais-new-confession-system-teaches-models-to-be-honest-about-bad-behaviors-210553482.html?src=rss પર દેખાયો હતો.








