مصنوعی ذہانت : اُبھرتا خطرہ

مصنوعی ذہانت (آرٹیفیشل انٹلی جنس AI) کی آمد سے تکنیکی ترقی کے ایک نئے دور کا آغاز ہوا ہے‘ جس سے زندگی کے مختلف شعبوں میں قابل ذکر پیش رفت ممکن ہوئی ہے تاہم جیسے جیسے مصنوعی ذہانت غیر معمولی رفتار سے ترقی کر رہی ہے‘ اِس کے ممکنہ خطرات کے بارے میں خدشات میں بھی نمایاں اضافہ ہوا ہے۔ درحقیقت کچھ لوگوں کا کہنا ہے کہ مصنوعی ذہانت انسانیت کےلئے جوہری ہتھیاروں سے بھی زیادہ ”بڑا خطرہ“ ہے۔ وقت ہے کہ اُن سبھی خدشات‘ تحفظات اور وجوہات کا جائزہ لیا جائے جو مصنوعی ذہانت کے ممکنہ خطرات سے متعلق ہیں۔ مصنوعی ذہانت کے حوالے سے بنیادی خدشات میں سے اس کی غیر متوقع صلاحیت کا عمل دخل ہے اگرچہ جوہری ہتھیار کنٹرول شدہ حالات میں کام کرتے ہیں اور مصنوعی ذہانت کا نظام انسانی تفہیم سے بالاتر سیکھنے‘ اپنانے اور ازخود ارتقا کی صلاحیت رکھتے ہیں۔ جیسے جیسے مصنوعی ذہانت کے طریقے (الگورتھم) زیادہ پیچیدہ اور نفیس ہو رہے ہیں‘ مشینوں کی فیصلہ سازی میں بھی بہتری آ رہی ہے اور آنے والے وقتوں میں فیصلہ سازی کا غیر شفاف اور واضح ہونا بھی مشکل ہوسکتا ہے۔ یہ غیر یقینی صورتحال سنگین اخلاقی اور حفاظتی خدشات کو جنم دے سکتی ہے کیونکہ مصنوعی ذہانت کی جدید شکل (ترقی یافتہ صورت) میں اُن اقدامات کا پتہ لگانا اور اُنہیں منظم کرنا باآسانی ممکن نہیں رہے گا۔مصنوعی ذہانت (آرٹیفیشل انٹلی جنس) کا نظام کسی مشین کے سیکھنے (لرننگ) کی صلاحیت اور تکنیک پر منحصر ہوتا ہے اور انسانوں کے برعکس اِس قسم کی فیصلہ سازی کے پیچھے (درپردہ) منطقی (صحیح) استدلال نہیں ہوتا۔ شفافیت اور حساسیت کا یہ فقدان سوال اِس جانب توجہ مبذول کرواتا ہے کہ انسان اپنے ہی بنائے ہوئے مصنوعی ذہانت کے نظام کو کس طرح ذمہ دار اور جوابدہ بنا سکتے ہیں۔ خاص طور پر صحت کی دیکھ بھال‘ مالیات اور خود مختار گاڑیوں جیسے اہم شعبوں میں اِس سے کس طرح ’محفوظ فائدہ‘ اُٹھایا جا سکتا ہے۔مصنوعی ذہانت کے نظام میں خود مختار رہتے ہوئے کام کاج کرنے کی صلاحیت ہوتی ہے۔ یہ نظام براہ راست انسانی مداخلت کے بغیر فیصلے کر سکتا ہے اگرچہ یہ خودمختاری مختلف صورتوں (ڈومینز) میں فائدہ مند ہوتی ہے لیکن یہ احتساب اور ذمہ داری کے بارے میں خدشات بھی پیدا کرتی ہے۔ جوہری ہتھیاروں کے برعکس‘ جن کے لئے انسانی فعالیت کی ضرورت ہوتی ہے‘ مصنوعی ذہانت کا نظام آزادانہ طور پر ایسے اقدامات انجام دے سکتا ہے جن کے دور رس نتائج ہوسکتے ہیں۔ اگر اِس مصنوعی ذہانت کو مناسب طریقے سے ڈیزائن اور منظم نہ کیا جائے تو یہ نظام ممکنہ طور پر ایسے فیصلے کرسکتے ہے جو انسانی اقدار سے متصادم ہوں یا اِن کی وجہ سے انسانی زندگیوں کے لئے خطرات پیدا ہوں۔ مثال کے طور پر‘ خودمختار ہتھیاروں کے دائرے میں‘ مصنوعی ذہانت سے چلنے والے نظام انسانی اجازت کے بغیر لڑائی میں مشغول ہونے کا فیصلہ کرسکتے ہیں‘ جس سے ممکنہ طور پر غیر ارادی طور پر تنازعات اور جنگوں میں اضافہ ہو سکتا ہے اور اِس ناقابل تلافی جانی نقصانات ہو سکتے ہیں۔ مصنوعی ذہانت کے نظام پر انسانی نگرانی اور کنٹرول یقینی بنانا اپنی جگہ کسی چیلنج سے کم نہیں اور اِس ہدف کو حاصل کرنے کی واحد صورت یہی رہ جاتی ہے کہ ایسی مشینوں کی ترقی کو روک دیا جائے جو نسل انسانی کے ’بہترین مفادات‘ کے خلاف کام کرنے کی امکانی صلاحیت رکھتی ہے چونکہ مصنوعی ذہانت کے نظام کا غلط استعمال بھی ہو سکتا ہے اِس لئے ایجاد کرنے والوں سے لیکر اِس کے استعمال کرنے والے بھی پریشانی اور حیرت کا اظہار کر رہے ہیں۔ مصنوعی ذہانت پر مبنی ٹیکنالوجیز کی تیز رفتار ترقی‘ اِس کے غلط استعمال کے امکان سے اندیشہ ہے کہ ہتھیاروں کی دوڑ میں اضافہ ہوگا۔ ممالک یا غیر ریاستی عناصر جارحانہ مقاصد کے لئے مصنوعی ذہانت کی صلاحیتوں کو فروغ دینے میں ایک دوسرے پر برتری حاصل کرنے کی کوشش کر سکتے ہیں جس سے خطرات میں اضافہ اور ممکنہ طور پر عالمی سلامتی کا منظر نامہ ’غیر مستحکم‘ ہو سکتا ہے۔ مصنوعی ذہانت کی ترقی و استعمال اِس کی غیر مرکزیت‘ اِس سے خطرات کو مو¿ثر طریقے سے کم کرنے کے لئے عالمی معیارات اور ضوابط کو قائم کرنا صرف مشکل ہی نہیں ناممکن بنا رہی ہے۔ مصنوعی ذہانت کے نظام میں بالخصوص ’مشین لرننگ‘ ایک ایسا متنازع پہلو ہے جس میں کوئی بھی مشین اعداد و شمار کے ذریعے سیکھتے ہوئے کسی معاملے میں نتیجے پر پہنچتی ہے چونکہ یہ اعدادوشمار انسانوں کی طرف سے فراہم کردہ طریق کے مطابق اضافہ ہوتے ہیں اِس لئے اِن کی وجہ سے تعصب اور غیر متوقع نتائج سامنے آ سکتے ہیں۔ اگر متعصب یا ناقص ڈیٹا سیٹس پر تربیت دی جائے تو مصنوعی ذہانت کے الگورتھم سماجی تعصبات کو برقرار رکھ سکتے ہیں بلکہ اِنہیں بڑھا بھی سکتے ہیں۔ دنیا کو امتیازی سلوک کم کرنے کی ضرورت ہے لیکن مصنوعی ذہانت کے ذریعے اِمتیازی سلوک کو بڑھایا بھی جا سکتا ہے یا اِس کے ممکنہ نقصان دہ دقیانوسی تصورات کو تقویت مل سکتی ہے۔ مزید برآں‘ مصنوعی ذہانت کے نظام کے زیادہ پیچیدہ ہونے کے ساتھ غیر متوقع طرز عمل اُبھرنے کا امکان ہے جو غیر متوقع نتائج کا حامل ہوسکتا ہے اور اِس کے معاشرے پر اہم اثرات مرتب ہو سکتے ہیں۔ مثال کے طور پر‘ فوجداری نظام انصاف میں استعمال ہونے والے مصنوعی ذہانت کے الگورتھم نسلی تعصب کا مظاہرہ کرتے ہوئے پائے گئے ہیں جس کی وجہ سے غیر منصفانہ فیصلے (نتائج) سامنے آئے ہیں۔ اس طرح کے تعصبات روزگار‘ مالیات اور صحت عامہ کی دیکھ بھال سمیت دیگر شعبوں (ڈومینز) میں بھی ظاہر ہوسکتے ہیں‘ جو موجودہ معاشرتی عدم مساوات میں اضافے کا باعث بنیں گے۔ تعصبات کو دور کرنا اور مصنوعی ذہانت کے نظام میں شفافیت یقینی بنانا مصنوعی ذہانت کو ’معاشرتی تقسیم بڑھانے‘ سے روکنے کے لئے اہم ہے۔ مصنوعی ذہانت کی ترقی یافتہ شکل ’سپر انٹیلیجنس‘ ہے جس میں مشینوں کی فیصلہ ساز صلاحیت انسانی ذہانت سے آگے نکل جاتی ہیں اور یہی وجہ ہے کہ مصنوعی ذہانت کی ابتدائی اشکال ہی سے اِس کے مضمرات و نقصانات کے حوالے سے قیاس آرائیوں کا سلسلہ جاری ہے اگرچہ ’سپر انٹیلیجنس‘ تاحال حاصل نہیں ہو سکی ہے لیکن یہ ہدف حاصل کرنے میں بھی مصنوعی ذہانت انسانوں کے کام آ سکتی ہے اور اس کے انسانوں اور انسانی معاشروں پر مضمرات گہرے ہوں گے۔ اگر مصنوعی ذہانت کا نظام انسانی ذہانت سے آگے نکل جاتا ہے تو یہ انسانی کنٹرول میں نہیں رہے گا جس سے ممکنہ طور پر ایسا منظر نامہ سامنے آ سکتا ہے جہاں انسان آزاد نہیں رہیں گے بلکہ یہ مصنوعی ذہانت رکھنے والی مشینوں کے ماتحت ہو جائیں گے اور اگر ایسا ہو گیا تو اِنسانیت پر اِس کے دور رس اثرات مرتب ہوں گے۔ انسانی ذہانت سے بلند اور تجاوز کرنے والے مصنوعی ذہانت کا تصور اپنی ذات میں ’وجودی خطرات‘ بھی رکھتا ہے۔ اگر ہم ایک ایسا مصنوعی ذہانت کا ادارہ تخلیق کریں جو ہماری علمی صلاحیتوں سے کہیں زیادہ ہو تو اس کے مقاصد و محرکات نمایاں طور پر مختلف ہوں گے اور یہ غیر متوقع نتائج کا باعث عمل ہو سکتا ہے جس سے ممکنہ طور پر انسانیت کی بقا یا انسانیت کی فلاح و بہبود خطرے میں پڑ سکتی ہے اگرچہ جوہری ہتھیاروں کو طویل عرصے سے انسانیت کے لئے خطرہ سمجھا جاتا رہا ہے لیکن مصنوعی ذہانت کی ٹیکنالوجی کے عروج نے تشویش کی ایک نئی جہت متعارف کرائی ہے۔ مصنوعی ذہانت کی غیر متوقع نوعیت‘ خود مختار فیصلہ سازی کی صلاحیت‘ تیز رفتار سکیل ایبلٹی‘ غیر متوقع نتائج کے امکانات اور سپر انٹیلیجنس جیسے ابھرتے و بڑھتے ہوئے امکانات (خطرات) اِسے ’طاقتور قوت‘ کی شکل دے رہے ہیں جو اپنی ساخت و تشکیل میں جوہری ہتھیاروں سے پیدا ہونے والے خطرات سے کہیں زیادہ بڑھ کر ہیں چونکہ ہم ’مصنوعی ذہانت‘ کی قابل ذکر صلاحیت اپناتے ہیں لہٰذا یہ ضروری ہے کہ مضبوط قواعد و ضوابط کے تابع اخلاقی فریم ورک کے ماتحت اور ایک ذمہ دارانہ مشینی ترقی کی راہ اپنائی جائے تاکہ اِس بات کو یقینی بنایا جاسکے کہ مصنوعی ذہانت انسانی اقدار کو متاثر نہیں کرے گی اور یہ اجتماعی فلاح و بہبود کے لئے خطرہ بھی نہیں ہو گی۔ مصنوعی ذہانت سے وابستہ خطرات سے نمٹنے‘ شفافیت و احتساب کے حصول اور مصنوعی ذہانت کے نظام کے سماجی اثرات پر محتاط غور و خوض کے لئے عملی اقدامات (کوششوں) کی ضرورت ہے تاکہ ٹیکنالوجی انسانوں کے لئے خطرہ نہیں بلکہ اِن کی محافظ ہو اور اِس عمل میں اقدار پر سمجھوتہ کئے بغیر انسانیت کو فائدہ پہنچایا جا سکے۔(بشکریہ: دی نیوز۔ تحریر: ڈاکٹر عمران بٹاڈا۔ ترجمہ: ابوالحسن امام)