सोशल मीडिया पर इंसानों की छुट्टी? AI बॉट्स ने बना ली अपनी अलग दुनिया, कैसे काम करता है ये नेटवर्क

एक दिन आप सो कर उठें और पता चले कि सोशल मीडिया पर आपकी एंट्री बैन हो गई है और बॉट्स ने खुद से टेकओवर कर लिया. ये मजाक नहीं है बल्कि सच्चाई है.

Advertisement
AI social media (Photo: ITG) AI social media (Photo: ITG)

मुन्ज़िर अहमद

  • नई दिल्ली,
  • 03 फरवरी 2026,
  • अपडेटेड 2:47 PM IST

हाल के हफ्तों में Moltbook जैसे प्लेटफॉर्म्स तेज़ी से सुर्खियों में आए हैं. ये प्लेटफॉर्म यूज़र के तौर पर इंसान नहीं, AI एजेंट्स को रखते हैं. आम तौर पर ये Reddit या X जैसा दिखता है, लेकिन टेक-लेयर और ऑपरेशनल मॉडल पूरी तरह अलग है. यह सिर्फ़ एक्सपेरिमेंट नहीं, बल्कि इंटरनेट की अगली स्टेज का प्रोटोटाइप है.

Maltbook नाम के AI सोशल मीडिया प्लेटफॉर्म पर 14 लाख से ज्यादा बॉट्स हैं. ये एक दूसरे से बातचीत करते हैं और फेसबुक की तरह ही पैरेलेल सोशल मीडिया तैयार हो चुका है जहां सिर्फ रोबोट्स का ही बोलबाला है. लेकिन लोगों के मन में ये सवाल है कि अगर AI को इंसानों ने ही बनाया तो ये खुद से कैसे एक दूसरे से बात कर रहे हैं? आइए जानते हैं कैसे ये पूरा खेल चल रहा है जो इंसानों के लिए बैकफायर भी कर सकता है.

Advertisement

कैसे काम करता है रोबोट्स का अपना सोशल मीडिया?

सबसे पहले समझना ज़रूरी है कि यहां जो 'एजेंट' लिखा जाता है वह कोई साधारण चैटबॉट नहीं है. हर एजेंट के पीछे एक बड़ा टेक स्टैक होता है. 

बेसिक फ्लो कुछ यूं है. सबसे पहले एक लैंग्वेज मॉडल चलता है, जो टेक्स्ट जेनेरेशन के लिए जिम्मेदार होता है. फिर उस मॉडल के ऊपर एजेंट फ्रेमवर्क चलता है जो तीन काम करता है: प्रॉम्प्ट ऑर्केस्ट्रेशन, टूल इनवोकेशन और स्टेट मैनेजमेंट.

प्रॉम्प्ट ऑर्केस्ट्रेशन में एजेंट को कॉन्टेक्स्ट दिया जाता है, जैसे उसकी पहचान, लक्ष्य और पिछले संवाद का रिकॉर्ड. 

टूल इनवोकेशन का मतलब है कि एजेंट बाहरी सर्विसेज को कॉल कर सकता है. उदाहरण के लिए वेब सर्च API, फैक्ट चेकर, या कोई सिमुलवेशन इंजन. 

स्टेट मैनेजमेंट में कॉन्वर्सेशन हिस्ट्री, वेक्टर एंबेडिंग और सीजन टोकेन्स संभाले जाते हैं ताकि एजेंट 'किस तरह का एजेंट' है यह याद रहे.

Advertisement

इन एजेंट्स के लिये दो चीज़ें ज़रूरी रहती हैं. पहला है रीट्रिवल ऑग्मेंटेड जेनेरेशन यानी RAG. इसका मतलब कि एजेंट सिर्फ जो कुछ इंटरनल मॉडल ने सीखा उस पर निर्भर नहीं करता, वह एक्सटर्नल नॉलेज स्टोर्स या वेक्टर DB से रेफरेंस लेकर जवाब बनाता है. 

दूसरा है टूल चेनिंग... जहां एजेंट एक API से डेटा लेकर दूसरे API को देता है और अंत में यूदर फेसिंग रेस्पॉन्स बनता है.

इंफ्रास्ट्रक्चर और कॉस्ट 

इन्हें चलाने के लिये भारी कंप्यूट पावर चाहिए. आमतौर पर बड़े LLMs. इन्हें GPUs या TPUs पर चलाया जाता है और मल्टी टेनेंट आर्किटेक्चर  में आइसोलेशन जरूरी होता है. इसलिए Moltbook जैसे प्लेटफॉर्म आमतौर पर क्लाउड इंफ्रा, माइक्रोसर्विसेज, और वेक्टर डेटाबेस का इस्तेमाल करते हैं. 

हर एजेंट के लिए मेमोरी फुटप्रिंट, टोकेन यूसेज और API कॉल्स का हिसाब रखा जाता है. यह सब काम सस्ता नहीं है, इसलिए बहुत से प्रयोग पहले रिसर्च या फंडेड प्रोजेक्ट्स में होते हैं.

किस तरह के AI एजेंट बन रहे हैं?

एजेंट्स की श्रेणियां अलग-अलग हैं. कुछ एजेंट शोध केंद्रित हैं, कुछ न्यूज-एजेंट्स हैं जो रिपोर्ट रेफ्रेश करते हैं, कुछ टेस्टिंग के लिए बनाए गए ट्रेडिंग या गेमिंग एजेंट हैं. कुछ एजेंट डेलिब्रेट टॉक्सिसिटी डिटेक्शन और मॉडरेशन के लिए भी बनाए जा रहे हैं ताकि दूसरे एजेंट्स की बातचीत से हानिकारक पैटर्न पकड़े जा सकें.

Advertisement

क्या हैं फायदे? 

AI ऑनली प्लेटफॉर्म से यह सीखने को मिलता है कि बड़े पैमाने पर एजेंट्स किस तरह भाषा बनाते और कम्यूनिकेट करते हैं. यह रिसर्च  के लिए मददगार है, खासकर मल्टी एजेंट कॉर्डिनेशन, इमर्जेंट बिहेवियर और टूल यूज की स्टडी में. 

दूसरा फायदा यह है कि रिस्की एक्स्पेरिमेंट्स को इंसानों से आइसोलेट कर के किया जा सकता है. यानी हार्मफुल कंटेंट जेनेरेट होने का जोखिम कम होकर कंट्रोल्ड एनवायरमेंट  में रहता है. 

तीसरा, इन्हें इंटर्नल ऑटोमेशन और एजेंट टु एजेंट वर्कफ्लो के टेस्ट बेड के रूम में इस्तेमाल किया जा सकता है. 

खतरे क्या हैं?

सबसे पहला खतरा यह है कि अगर इन एजेंट्स ने अपने बीच गलत या बायस फुल नैरेटिव डेवेलप  किया, तो मशीन जेनेरेटेड कंक्लूजन धीरे-धीरे आउट-ऑफ-सैंडबॉक्स दुनिया में लीक कर सकती हैं. 

दूसरा, डिटेक्शन का चक्र टूट सकता है. आज हम बॉट-बिहेवियर डिटेक्ट करने के तौर-तरीके जानते हैं, लेकिन जब बॉट्स खुद ही अपने तरीके से संवाद करेंगे, तब ह्यूमन डिटेक्शन कनफ्यूज हो सकते हैं. 

तीसरा, गवर्नेंस और अकाउंटेब्लिटी यानी जवाबदेही का बड़ा सवाल है. अगर किसी AI ऑनली प्लेटफॉर्म पर मिसइनफॉर्मेशन का अंबार बनती है तो जिम्मेदारी किसकी होगी? प्लेटफॉर्म की, मॉडल-प्रोवाइडर की या एजेंट के डेवलपर की? 

सुरक्षा और नियम कौन देगा?

इस टेक की रिस्क को समझने के लिए ऑपरेशन पैरामीटर्स जरूरी हैं. अच्छे प्लेटफॉर्म पर इन चीज़ों का ख्याल रखा जाना चाहिए... मॉडल वॉटरमार्किंग ताकि जेनेरेटेड कंटेंट पहचाना जा सके, इम्यूटेबल लॉग्स ताकि बिहेवियर ट्रेसिंग हो, रेट लिमिट और टूल ऐक्सेस कंट्रोल ताकि एजेंट खुद से ही वेब ऐक्शन ना कर सकें. 

Advertisement

हमें ह्यूमन इन लूप मैकेनिज्म की जरूरत है  ताकि क्रिटिकल और जरूर फैसलों पर इंसानी हस्तक्षेप रहे. साथ में तीसरी पार्टी ऑडिट्स और रेड टीम टेस्टिंग मैंडेटरी होने चाहिए.

प्रैक्टिकल असर क्या होगा?

इस तरह के प्लेटफॉर्म को दुनिया में यह दो तरह से देखा जाएगा. आगे बड़े टेक लैब्स AI एजेंट्स के लिए इंटर्नल सैंडबॉक्स बनाए जाएंगे ताकि सर्विसेज को स्केल किया जा सके. दूसरी तरफ़, जो प्लेयर इस टेक्नोलॉजी को गलत तरीके से मोनाटाइज करेंगे, वो इनफॉर्मेशन सिस्टम को मैनिपुलेट करने की कोशिश कर सकते हैं. 

रेग्यूलेटर्स  के लिए यह नया सिरदर्द है क्योंकि ट्रेडिशनल मॉडरेशन फ्रेमवर्क इंसानों द्वारा बनाए गए कंटेंट के लिए बनाए गए हैं. मशीन टू मशीन  कॉन्टेंट को मॉडरेट करना मुश्किल होगा. क्योंकि अभी तक ऐसे सिस्टम तैयार ही नहीं हुए हैं. इसलिए ये बैकफायर भी कर सकता है. अगर समय पर लगाम ना लगाई गई. 

---- समाप्त ----

Read more!
Advertisement

RECOMMENDED

Advertisement