Search

    Language Settings
    Select Website Language

    GDPR Compliance

    We use cookies to ensure you get the best experience on our website. By continuing to use our site, you accept our use of cookies, Privacy Policy, and Terms of Service.

    dailyadda
    dailyadda

    Are You Sure? पूछते ही बदल जाता है AI का जवाब! आखिर क्यों पलट जाते हैं चैटबॉट्स, जानिए पूरी जानकारी

    4 days ago

    AI Chatbots: अगर आप रोजाना ChatGPT, Gemini या Claude जैसे AI चैटबॉट इस्तेमाल करते हैं तो आपने एक अजीब बात जरूर नोटिस की होगी. ये सिस्टम आम तौर पर बहुत आत्मविश्वास से भरे, सधे हुए जवाब देते हैं. लेकिन जैसे ही आप पूछते हैं, “क्या आप पक्के हैं?” या “Are you sure?”, वही जवाब अचानक बदल सकता है. कई बार नया उत्तर पहले वाले से अलग बल्कि पूरी तरह उल्टा भी होता है. अगर आप बार-बार चुनौती देते रहें तो मॉडल फिर से अपना रुख बदल सकता है. सवाल यह है कि ऐसा क्यों होता है? क्या AI को अपने जवाब पर भरोसा नहीं होता?

    साइकोफैंसी यानी खुश करने की प्रवृत्ति

    इस व्यवहार को तकनीकी दुनिया में साइकोफैंसी कहा जाता है यानी यूजर को खुश करने या उसकी बात से सहमत होने की प्रवृत्ति. Randal S. Olson जो Goodeye Labs के सह-संस्थापक और CTO हैं बताते हैं कि यह आधुनिक AI सिस्टम की एक जानी-पहचानी कमजोरी है.

    दरअसल, इन मॉडलों को इस तरह प्रशिक्षित किया जाता है कि वे मानव प्रतिक्रिया के आधार पर बेहतर बनें. इस प्रक्रिया को RLHF (Reinforcement Learning from Human Feedback) कहा जाता है. इसी ट्रेनिंग के कारण चैटबॉट ज्यादा सभ्य, संवादात्मक और कम आपत्तिजनक बनते हैं. लेकिन इसका एक साइड इफेक्ट भी है वे असहमति जताने के बजाय सहमति की ओर झुक जाते हैं.

    सच बोलने पर सजा, सहमत होने पर इनाम?

    AI मॉडल को स्कोरिंग सिस्टम के जरिए सुधारा जाता है. अगर उसका जवाब यूज़र को पसंद आता है या सहमतिपूर्ण लगता है तो उसे बेहतर रेटिंग मिलती है. लेकिन अगर वह यूज़र की राय से टकराता है तो उसे कम स्कोर मिल सकता है. इससे एक तरह का चक्र बन जाता है जिसमें मॉडल धीरे-धीरे वही कहने लगता है जो सामने वाला सुनना चाहता है.

    Anthropic ने 2023 में प्रकाशित एक शोध में दिखाया था कि मानव प्रतिक्रिया पर प्रशिक्षित मॉडल कई बार सटीक होने से ज्यादा ‘सहमत’ होने को प्राथमिकता देते हैं.

    रिसर्च में क्या सामने आया?

    एक अन्य अध्ययन में GPT-4o, Claude Sonnet और Gemini 1.5 Pro को गणित और मेडिकल जैसे गंभीर विषयों पर परखा गया. नतीजे चौंकाने वाले थे यूजर द्वारा चुनौती दिए जाने पर इन मॉडलों ने लगभग 60% मामलों में अपना जवाब बदल दिया. यानी यह कोई इक्का-दुक्का गलती नहीं, बल्कि एक आम प्रवृत्ति है.

    जब बहुत ज्यादा सहमत हो गया AI

    पिछले साल अप्रैल में OpenAI ने GPT-4o का एक अपडेट जारी किया, जिसके बाद चैटबॉट इतना ज्यादा सहमत और चापलूस हो गया कि उसका इस्तेमाल करना मुश्किल लगने लगा. कंपनी के CEO Sam Altman ने इस समस्या को स्वीकार किया और सुधार का दावा भी किया लेकिन विशेषज्ञों का मानना है कि जड़ में मौजूद समस्या अभी पूरी तरह खत्म नहीं हुई है.

    यह भी पढ़ें:

    फोन हो गया चोरी? घबराएं नहीं! Google की इस ट्रिक से मिनटों में ऐसे लगा सकते हैं पता, नहीं पड़ेगी किसी ऐप की जरूरत

    Click here to Read More
    Previous Article
    भारत में ChatGPT के वीकली एक्टिव यूजर्स 10 करोड़ से पार, जानें जेमिनी समेत बाकी चैटबॉट्स के कितने यूजर्स
    Next Article
    चीन ने कर दिया कमाल! गलियों में उतारे टर्मिनेटर जैसे रोबोट, ट्रैफिक भी संभाल रहे

    Related टेक्नोलॉजी Updates:

    Are you sure? You want to delete this comment..! Remove Cancel

    Comments (0)

      Leave a comment