हमने AI को बेहतर करना तो सिखाया पर परवाह करना नहीं, अब यही डराने वाली बात है!

एआई को हमने इंटेल‍िजेंट बनाया, इसे स्मार्ट कहा. हर फैसले लेने से पहले एआई से पूछने लगे. अब पूरी दुनिया में एआई और नैत‍िकता को लेकर एक बहस जारी है. यहां एआई और नैत‍िकता से जुड़ी इसी बहस को व्यक्त‍िगत अनुभवों के साथ पेश किया गया है.

Advertisement
क्या AI इंसान की तरह नैतिकता के ग्राउंड पर भी सोचकर फैसले ले सकता है? (प्रतीकात्मक तस्वीर) क्या AI इंसान की तरह नैतिकता के ग्राउंड पर भी सोचकर फैसले ले सकता है? (प्रतीकात्मक तस्वीर)

aajtak.in

  • नई दिल्ली ,
  • 26 अगस्त 2025,
  • अपडेटेड 4:44 PM IST

मैंने अपने करियर का एक बड़ा हिस्सा टेक्नोलॉजी और ट्रांसफॉर्मेशन की दुनिया में बिताया है. कभी ऐसे सिस्टम बनाए जो बड़े पैमाने पर काम कर सकें. कभी जो काम नहीं कर सके उन्हें बंद भी किया. कई बार रात-रात भर वॉर रूम्स में काम किया और ये सब करने के दौरान एक बात मेरे अंदर बैठ गई और अब यही बात बार-बार परेशान करती है. मुझे लगता है कि हम शायद मशीनों को वो फैसले लेने सिखा रहे हैं, जिनकी जिम्मेदारी लेने का हौसला हममें अब नहीं बचा.

Advertisement

हम ऐसा इसलिए नहीं कर रहे हैं क्योंकि हम बुरे हैं या आलसी हैं, बल्कि स्पीड, स्केल और डिजिटल दक्षता की दौड़ में हमने अपनी असली सोच-समझ से लिए जाने वाले निर्णयों को धीरे-धीरे किनारे कर दिया है. अब AI ये तय करने लगा है कि किसे लोन मिलेगा, किसे हेल्थकेयर, किसे नौकरी, किसे पैरोल या एजुकेशन या यहां तक कि सिटिजनशिप भी एआई तय कर रहा है. बस, दिक्कत असल में यही से शुरू होती है.

वो दिन जब टेक्नोलॉजी से मेरा इंप्रेशन टूट गया

मुझे एक दिन बहुत अच्छे से याद है. मैं एक AI-आधारित सिस्टम का रिव्यू लीड कर रहा था. ये सिस्टम कंपनियों के अंदर पॉलिसी वायलेशन केसों को 'ट्रायएज' करता था, मतलब कौन-सा केस सीरियस है और किसे लो-रिस्क मानना है. इरादा अच्छा था, बॉटलनेक कम करना, गंभीर मामलों को जल्दी पकड़ना, और इंसानों पर से बोझ कम करना. पायलट बहुत सफल लग रहा था सस्ता, तेज और 'कंसिस्टेंट'. कंप्लायंस लीड खुश था. डैशबोर्ड्स ग्रीन थे. सब कुछ परफेक्ट.

Advertisement

...लेकिन भीतर से कुछ गड़बड़ लग रही थी

मुझे ऐसा लग रहा था कि सिस्टम की लॉजिक यानी वो असल कारण जिससे तय होता था कौन-सा केस गंभीर है और कौन-सा हल्का. असल में ये सब समझ ही नहीं आ रहा था. वो डेटा पर बेस्ड प्रॉक्सी वेरिएबल्स थे जिन्हें अब कोई सही से नहीं समझ पा रहा था. मसलन, शुक्रवार की दोपहर किसी जूनियर एम्प्लॉई ने अगर कोई केस फ्लैग किया तो उसके लो-प्रायोरिटी होने की संभावना ज्यादा थी. ये जानबूझकर नहीं हुआ था, बस ट्रेनिंग डेटा में यही पैटर्न था.

मतलब हमने गलत चीज को ऑप्टिमाइज कर दिया था और किसी को पता भी नहीं चला क्योंकि नतीजे एफिशिएंट दिख रहे थे. मैंने रोलआउट रोक दिया. मॉडल को री-ट्रेन किया. तीन हफ्ते का टाइम गंवाया. लेकिन हमने अपनी अंतरात्मा वापस पा ली. उस दिन मैंने टेक्नोलॉजी से इंप्रेस होना बंद कर दिया और ये चिंता करनी शुरू कर दी कि हमने चुपचाप इसे क्या बनने दिया है.

AI नैतिकता नहीं सिर्फ पैटर्न समझता है

हम इन सिस्टम्स को 'इंटेलिजेंट' कहते हैं, लेकिन ये इंसानों वाली समझदारी नहीं रखते. इन्हें न न्याय की फिक्र है, न निष्पक्षता की, न अस्पष्टताओं से जूझना आता है. AI बस पैटर्न पहचानता है. लेकिन ये पैटर्न कहां से आते हैं? हमारे पुराने डेटा से. और वो डेटा असल में टूटा-फूटा, पक्षपाती और असमानताओं से भरा है. हम उन्हीं ग़लतियों को मशीन में डाल देते हैं और फिर उम्मीद करते हैं कि वो इंसान से बेहतर फैसले लेगी. असलियत ये है कि हमने गलतियों को ही और बढ़ा दिया है.

Advertisement

मैंने वित्तीय सेवाओं की दुनिया में देखा है कि अच्छी नीयत से बनाए गए मॉडल भी कैसे खतरनाक नतीजे दे सकते हैं. कैसे ये क्रेडिट स्कोर सिस्टम गरीब इलाकों के लोगों को डाउन-रैंक कर देता है. हायरिंग टूल्स कुछ खास यूनिवर्सिटी या शहरों के लोगों को ज्यादा तवज्जो देते हैं. फ्रॉड अल्गोरिद्म्स उन यूजर्स को फंसाते हैं जिनका डिजिटल पैटर्न 'Majority' जैसा नहीं दिखता.

ये नतीजे बुरी नीयत से नहीं आए. ये सिर्फ सोचे-समझे बिना ऑप्टिमाइजेशन का असर थे. लेकिन क्योंकि आंकड़े अच्छे दिख रहे थे इसलिए असल नुक़सान दिखा ही नहीं जब तक किसी ने सवाल पूछने की हिम्मत नहीं की.

Accuracy और Morality अलग-अलग हैं!

हमें याद रखना चाहिए कि सटीकता (accuracy) और नैतिकता (morality) एक जैसी चीज़ नहीं हैं. धीरे-धीरे हमारी नैतिक जिम्मेदारी खत्म हो रही है. मुझे नहीं लगता कि AI खुद बुरी चीज़ है, लेकिन ये नैतिक जिम्मेदारी दूसरों पर डाल देने की खतरनाक आदत को बढ़ावा देता है. असल में यही सबसे बड़ा खतरा है. इसे ऐसे समझें.

स्टेप 1: टीम एक सिस्टम बनाती है ताकि मुश्किल फैसला आसान हो जाए.
स्टेप 2: कोई स्टेकहोल्डर कह देता है, 'मॉडल recommend करता है तो हम मान लेते हैं.'
स्टेप 3: मॉडल कोई अजीब/शक वाला सुझाव देता है मगर कोई bottleneck नहीं बनना चाहता इसलिए सवाल नहीं होते.
स्टेप 4: बिना गहरी समीक्षा के वही सुझाव लागू (ship) कर दिया जाता है.
स्टेप 5: बाद में जवाबदेही पूछी जाती है तो कहा जाता है, 'मॉडल ने ऐसा कहा था.'

Advertisement

ये सुनने में बोरिंग लगता है. लेकिन मैंने देखा है कैसे पूरे करियर-बदलने वाले फैसले ऐसे ही एक स्प्रेडशीट के नंबर पर ले लिए गए, जिसे कोई ठीक से समझ भी नहीं रहा था. क्यों? क्योंकि कोई भी लाइन खींचने की जिम्मेदारी लेना नहीं चाहता था.

क्यों सिर्फ Regulation काफी नहीं

आजकल AI regulation की मांग बढ़ रही है, और हां, ये बेहद जरूरी है. लेकिन नियम-कानून हमें उस बीमारी से नहीं बचा पाएंगे जहां फैसले बिना सोचे समझे लिए जाते हैं, जहां सिस्टम में इंसानियत की जगह नहीं, जहां ऑप्टिमाइज़ेशन है पर एथ‍िक्स नहीं. एथ‍िक्स कोई चेकलिस्ट नहीं है. ये एक आदत है. एक ठहराव है. ये वो हिम्मत है कि जब सब कुछ सही दिख रहा हो तब भी आप सवाल पूछ सकें.

ये हॉलवे की बातचीत में दिखता है. उस एनालिस्ट में द‍िखता है जो पूछता है कि 'हम ये वेरिएबल क्यों इस्तेमाल कर रहे हैं?' उस प्रोडक्ट लीड में भी द‍िखता है जो टाइमलाइन बढ़ाने को कहता है ताकि सोचने का वक्त मिले. उस एग्जीक्यूट‍िव में भी जो कहता है कि स्पीड का नुकसान झेल लेंगे, लेकिन कुछ ऐसा लॉन्च नहीं करेंगे जो सही नहीं लगता.

...और ये सब हमें शुरुआत से करना होगा. तब नहीं जब मीडिया में इसकी खूब चर्चा हो चुकी हो. हमें सोचना होगा कि हमें किस तरह की लीडरशिप चाहिए. मैं गिनती भूल गया हूं कि कितने AI पैनल्स में लोग कहते हैं, 'हमें एथ‍िकल फ्रेमवर्क्स चाहिए.'

Advertisement

फ्रेमवर्क्स हमारे पास हैं. अब हमें चाहिए एथि‍कल इंस्ट‍िक्ट. ये किसी टूलकिट से नहीं आते. ये हमारे भीतर की संस्कृति से आते हैं. टीम में ऐसे लोग रखने से आते हैं जो अलग नजरिए से देखते हैं, जो वो नोटिस करते हैं जो दूसरों से छूट जाता है और जो ये कहने का साहस रखते हैं, 'हमें ये अभी लॉन्च नहीं करना चाहिए.'

बेहतरीन लीडर वही हैं जो सिर्फ आउटकम को ऑप्टिमाइज़ नहीं करते, बल्कि असहज सवालों के लिए जगह भी रखते हैं क्योंकि वहीं से जजमेंट आता है और जजमेंट से ही इंसानियत शुरू होती है.

आखिरी बात अगर नैतिकता चाहिए तो उसे शुरुआत से जोड़ना होगा. AI हमारी जिंदगी पर उतना असर डालेगा जितना हम सोच भी नहीं रहे. ये कोई हाइप नहीं, सच्चाई है. लेकिन साफ कह दूं, अगर आप नैतिकता को सिस्टम बनाते वक्त नहीं जोड़ते तो आप जानबूझकर उसे बाहर छोड़ रहे हैं. असल में टेक्नोलॉजी में न्यूट्रल कुछ नहीं होता. हर लाइन कोड में एक वैल्यू छिपी होती है. हर फीचर में एक ट्रेड-ऑफ. हर फैसला एक वर्ल्डव्यू दिखाता है या तो आपका या वो जो आपको विरासत में मिला है. असल सवाल ये नहीं है कि हम 'इंटेलिजेंट सिस्टम' बना सकते हैं या नहीं. वो हम बना चुके हैं.

Advertisement

सवाल ये है कि क्या हमारे पास अब भी इतनी हिम्मत और विनम्रता है कि उन्हें बनाते वक्त हम इंसान बने रहें. क्योंकि जिस दिन हमने 'क्या हमें ये करना चाहिए?' पूछना छोड़ दिया और सिर्फ 'क्या हम ये कर सकते हैं?' पूछना शुरू कर दिया, उसी दिन हमने पहले ही अपनी जिम्मेदारी मशीन को सौंप दी.

(लेखक आदित्य विक्रम कश्यप इस वक्त न्यूयॉर्क में मॉर्गन स्टैनली के वाइस प्रेसिडेंट हैं. वे अवॉर्ड-विनिंग टेक्नोलॉजी लीडर हैं. ये उनके निजी विचार हैं.)

---- समाप्त ----

Read more!
Advertisement

RECOMMENDED

Advertisement