scorecardresearch
 

हमने AI को बेहतर करना तो सिखाया पर परवाह करना नहीं, अब यही डराने वाली बात है!

एआई को हमने इंटेल‍िजेंट बनाया, इसे स्मार्ट कहा. हर फैसले लेने से पहले एआई से पूछने लगे. अब पूरी दुनिया में एआई और नैत‍िकता को लेकर एक बहस जारी है. यहां एआई और नैत‍िकता से जुड़ी इसी बहस को व्यक्त‍िगत अनुभवों के साथ पेश किया गया है.

Advertisement
X
क्या AI इंसान की तरह नैतिकता के ग्राउंड पर भी सोचकर फैसले ले सकता है? (प्रतीकात्मक तस्वीर)
क्या AI इंसान की तरह नैतिकता के ग्राउंड पर भी सोचकर फैसले ले सकता है? (प्रतीकात्मक तस्वीर)

मैंने अपने करियर का एक बड़ा हिस्सा टेक्नोलॉजी और ट्रांसफॉर्मेशन की दुनिया में बिताया है. कभी ऐसे सिस्टम बनाए जो बड़े पैमाने पर काम कर सकें. कभी जो काम नहीं कर सके उन्हें बंद भी किया. कई बार रात-रात भर वॉर रूम्स में काम किया और ये सब करने के दौरान एक बात मेरे अंदर बैठ गई और अब यही बात बार-बार परेशान करती है. मुझे लगता है कि हम शायद मशीनों को वो फैसले लेने सिखा रहे हैं, जिनकी जिम्मेदारी लेने का हौसला हममें अब नहीं बचा.

हम ऐसा इसलिए नहीं कर रहे हैं क्योंकि हम बुरे हैं या आलसी हैं, बल्कि स्पीड, स्केल और डिजिटल दक्षता की दौड़ में हमने अपनी असली सोच-समझ से लिए जाने वाले निर्णयों को धीरे-धीरे किनारे कर दिया है. अब AI ये तय करने लगा है कि किसे लोन मिलेगा, किसे हेल्थकेयर, किसे नौकरी, किसे पैरोल या एजुकेशन या यहां तक कि सिटिजनशिप भी एआई तय कर रहा है. बस, दिक्कत असल में यही से शुरू होती है.

Advertisement

वो दिन जब टेक्नोलॉजी से मेरा इंप्रेशन टूट गया

मुझे एक दिन बहुत अच्छे से याद है. मैं एक AI-आधारित सिस्टम का रिव्यू लीड कर रहा था. ये सिस्टम कंपनियों के अंदर पॉलिसी वायलेशन केसों को 'ट्रायएज' करता था, मतलब कौन-सा केस सीरियस है और किसे लो-रिस्क मानना है. इरादा अच्छा था, बॉटलनेक कम करना, गंभीर मामलों को जल्दी पकड़ना, और इंसानों पर से बोझ कम करना. पायलट बहुत सफल लग रहा था सस्ता, तेज और 'कंसिस्टेंट'. कंप्लायंस लीड खुश था. डैशबोर्ड्स ग्रीन थे. सब कुछ परफेक्ट.

...लेकिन भीतर से कुछ गड़बड़ लग रही थी

मुझे ऐसा लग रहा था कि सिस्टम की लॉजिक यानी वो असल कारण जिससे तय होता था कौन-सा केस गंभीर है और कौन-सा हल्का. असल में ये सब समझ ही नहीं आ रहा था. वो डेटा पर बेस्ड प्रॉक्सी वेरिएबल्स थे जिन्हें अब कोई सही से नहीं समझ पा रहा था. मसलन, शुक्रवार की दोपहर किसी जूनियर एम्प्लॉई ने अगर कोई केस फ्लैग किया तो उसके लो-प्रायोरिटी होने की संभावना ज्यादा थी. ये जानबूझकर नहीं हुआ था, बस ट्रेनिंग डेटा में यही पैटर्न था.

मतलब हमने गलत चीज को ऑप्टिमाइज कर दिया था और किसी को पता भी नहीं चला क्योंकि नतीजे एफिशिएंट दिख रहे थे. मैंने रोलआउट रोक दिया. मॉडल को री-ट्रेन किया. तीन हफ्ते का टाइम गंवाया. लेकिन हमने अपनी अंतरात्मा वापस पा ली. उस दिन मैंने टेक्नोलॉजी से इंप्रेस होना बंद कर दिया और ये चिंता करनी शुरू कर दी कि हमने चुपचाप इसे क्या बनने दिया है.

Advertisement

AI नैतिकता नहीं सिर्फ पैटर्न समझता है

हम इन सिस्टम्स को 'इंटेलिजेंट' कहते हैं, लेकिन ये इंसानों वाली समझदारी नहीं रखते. इन्हें न न्याय की फिक्र है, न निष्पक्षता की, न अस्पष्टताओं से जूझना आता है. AI बस पैटर्न पहचानता है. लेकिन ये पैटर्न कहां से आते हैं? हमारे पुराने डेटा से. और वो डेटा असल में टूटा-फूटा, पक्षपाती और असमानताओं से भरा है. हम उन्हीं ग़लतियों को मशीन में डाल देते हैं और फिर उम्मीद करते हैं कि वो इंसान से बेहतर फैसले लेगी. असलियत ये है कि हमने गलतियों को ही और बढ़ा दिया है.

मैंने वित्तीय सेवाओं की दुनिया में देखा है कि अच्छी नीयत से बनाए गए मॉडल भी कैसे खतरनाक नतीजे दे सकते हैं. कैसे ये क्रेडिट स्कोर सिस्टम गरीब इलाकों के लोगों को डाउन-रैंक कर देता है. हायरिंग टूल्स कुछ खास यूनिवर्सिटी या शहरों के लोगों को ज्यादा तवज्जो देते हैं. फ्रॉड अल्गोरिद्म्स उन यूजर्स को फंसाते हैं जिनका डिजिटल पैटर्न 'Majority' जैसा नहीं दिखता.

ये नतीजे बुरी नीयत से नहीं आए. ये सिर्फ सोचे-समझे बिना ऑप्टिमाइजेशन का असर थे. लेकिन क्योंकि आंकड़े अच्छे दिख रहे थे इसलिए असल नुक़सान दिखा ही नहीं जब तक किसी ने सवाल पूछने की हिम्मत नहीं की.

Accuracy और Morality अलग-अलग हैं!

Advertisement

हमें याद रखना चाहिए कि सटीकता (accuracy) और नैतिकता (morality) एक जैसी चीज़ नहीं हैं. धीरे-धीरे हमारी नैतिक जिम्मेदारी खत्म हो रही है. मुझे नहीं लगता कि AI खुद बुरी चीज़ है, लेकिन ये नैतिक जिम्मेदारी दूसरों पर डाल देने की खतरनाक आदत को बढ़ावा देता है. असल में यही सबसे बड़ा खतरा है. इसे ऐसे समझें.

स्टेप 1: टीम एक सिस्टम बनाती है ताकि मुश्किल फैसला आसान हो जाए.
स्टेप 2: कोई स्टेकहोल्डर कह देता है, 'मॉडल recommend करता है तो हम मान लेते हैं.'
स्टेप 3: मॉडल कोई अजीब/शक वाला सुझाव देता है मगर कोई bottleneck नहीं बनना चाहता इसलिए सवाल नहीं होते.
स्टेप 4: बिना गहरी समीक्षा के वही सुझाव लागू (ship) कर दिया जाता है.
स्टेप 5: बाद में जवाबदेही पूछी जाती है तो कहा जाता है, 'मॉडल ने ऐसा कहा था.'

ये सुनने में बोरिंग लगता है. लेकिन मैंने देखा है कैसे पूरे करियर-बदलने वाले फैसले ऐसे ही एक स्प्रेडशीट के नंबर पर ले लिए गए, जिसे कोई ठीक से समझ भी नहीं रहा था. क्यों? क्योंकि कोई भी लाइन खींचने की जिम्मेदारी लेना नहीं चाहता था.

क्यों सिर्फ Regulation काफी नहीं

आजकल AI regulation की मांग बढ़ रही है, और हां, ये बेहद जरूरी है. लेकिन नियम-कानून हमें उस बीमारी से नहीं बचा पाएंगे जहां फैसले बिना सोचे समझे लिए जाते हैं, जहां सिस्टम में इंसानियत की जगह नहीं, जहां ऑप्टिमाइज़ेशन है पर एथ‍िक्स नहीं. एथ‍िक्स कोई चेकलिस्ट नहीं है. ये एक आदत है. एक ठहराव है. ये वो हिम्मत है कि जब सब कुछ सही दिख रहा हो तब भी आप सवाल पूछ सकें.

Advertisement

ये हॉलवे की बातचीत में दिखता है. उस एनालिस्ट में द‍िखता है जो पूछता है कि 'हम ये वेरिएबल क्यों इस्तेमाल कर रहे हैं?' उस प्रोडक्ट लीड में भी द‍िखता है जो टाइमलाइन बढ़ाने को कहता है ताकि सोचने का वक्त मिले. उस एग्जीक्यूट‍िव में भी जो कहता है कि स्पीड का नुकसान झेल लेंगे, लेकिन कुछ ऐसा लॉन्च नहीं करेंगे जो सही नहीं लगता.

...और ये सब हमें शुरुआत से करना होगा. तब नहीं जब मीडिया में इसकी खूब चर्चा हो चुकी हो. हमें सोचना होगा कि हमें किस तरह की लीडरशिप चाहिए. मैं गिनती भूल गया हूं कि कितने AI पैनल्स में लोग कहते हैं, 'हमें एथ‍िकल फ्रेमवर्क्स चाहिए.'

फ्रेमवर्क्स हमारे पास हैं. अब हमें चाहिए एथि‍कल इंस्ट‍िक्ट. ये किसी टूलकिट से नहीं आते. ये हमारे भीतर की संस्कृति से आते हैं. टीम में ऐसे लोग रखने से आते हैं जो अलग नजरिए से देखते हैं, जो वो नोटिस करते हैं जो दूसरों से छूट जाता है और जो ये कहने का साहस रखते हैं, 'हमें ये अभी लॉन्च नहीं करना चाहिए.'

बेहतरीन लीडर वही हैं जो सिर्फ आउटकम को ऑप्टिमाइज़ नहीं करते, बल्कि असहज सवालों के लिए जगह भी रखते हैं क्योंकि वहीं से जजमेंट आता है और जजमेंट से ही इंसानियत शुरू होती है.

Advertisement

आखिरी बात अगर नैतिकता चाहिए तो उसे शुरुआत से जोड़ना होगा. AI हमारी जिंदगी पर उतना असर डालेगा जितना हम सोच भी नहीं रहे. ये कोई हाइप नहीं, सच्चाई है. लेकिन साफ कह दूं, अगर आप नैतिकता को सिस्टम बनाते वक्त नहीं जोड़ते तो आप जानबूझकर उसे बाहर छोड़ रहे हैं. असल में टेक्नोलॉजी में न्यूट्रल कुछ नहीं होता. हर लाइन कोड में एक वैल्यू छिपी होती है. हर फीचर में एक ट्रेड-ऑफ. हर फैसला एक वर्ल्डव्यू दिखाता है या तो आपका या वो जो आपको विरासत में मिला है. असल सवाल ये नहीं है कि हम 'इंटेलिजेंट सिस्टम' बना सकते हैं या नहीं. वो हम बना चुके हैं.

सवाल ये है कि क्या हमारे पास अब भी इतनी हिम्मत और विनम्रता है कि उन्हें बनाते वक्त हम इंसान बने रहें. क्योंकि जिस दिन हमने 'क्या हमें ये करना चाहिए?' पूछना छोड़ दिया और सिर्फ 'क्या हम ये कर सकते हैं?' पूछना शुरू कर दिया, उसी दिन हमने पहले ही अपनी जिम्मेदारी मशीन को सौंप दी.

(लेखक आदित्य विक्रम कश्यप इस वक्त न्यूयॉर्क में मॉर्गन स्टैनली के वाइस प्रेसिडेंट हैं. वे अवॉर्ड-विनिंग टेक्नोलॉजी लीडर हैं. ये उनके निजी विचार हैं.)

---- समाप्त ----
Live TV

Advertisement
Advertisement