آیا هوش مصنوعی قابل اعتماد است؟

فرض کنید که برای دریافت بخشی از هزینه‌های درمان بیماری خود، به شرکت بیمه مراجعه کرده‌اید اما شرکت بیمه با پرداخت وجه به شما موافقت نمی‌کند، تنها به این دلیل که الگوریتم‌های ارزیابی شرکت، به این نتیجه رسیده‌اند که شما مستحق دریافت کمک مالی نیستید یا وقتی که درخواست وام شما از طرف بانک رد می‌شود و بانک شما نمی‌تواند بگوید دقیقا چرا با پرداخت وام موافقت نشده است. اینها نمونه‌های ساده‌ای از سناریوهای تحمیلی است که با رشد و توسعه هوش مصنوعی، فعالان حوزه تکنولوژی درباره آن ابراز نگرانی کرده‌اند. بخش‌های مختلفی از دنیای تکنولوژی مانند تحقیقات پزشکی، خودروهای خودران، بخش‌های نظامی و جنایی در حال تحقیق روی هوش مصنوعی هستند تا هر بخش به فراخور سیستم کاری خود، بتواند بفهمد چگونه می‌توان هوش مصنوعی را با حفظ مسائل امنیتی، به بهترین شکل مورد استفاده قرار داد. طبق گزارش اخیر شرکت مشاوره consultancy PwC، پیش‌بینی می‌شود که هوش مصنوعی تا سال ۲۰۳۰ اقتصاد جهانی را به میزان ۷/ ۱۵ تریلیون دلار افزایش خواهد داد. اما به چه قیمتی؟ این برنامه‌های الگوریتمیک، آنقدر در حال پیچیده شدن هستند که حتی خالقان آنها نیز گاهی اوقات نمی‌توانند بفهمند این دستاورد با ارزش انسانی، تصمیمات خود را بر چه مبنایی می‌گیرد!

شبکه‌های عصبی هوشمند نوظهور که به آنها neural networks می‌گوییم و طوری طراحی شده‌اند تا رفتارهای مغز انسان را تقلید کنند، شامل تعدادی پردازنده‌ متصل به یکدیگر هستند که می‌توانند حجم عظیمی از داده را تحلیل کنند. neural networks با استفاده از تکنولوژی یادگیری ماشینی، میلیون‌ها الگوی متغیر را تحلیل کرده و یافته‌های خود را به مرحله عمل می‌رسانند. این دستاورد می‌تواند تغییرات بزرگی در دنیای دیجیتال ایجاد کند مانند پیش‌بینی‌های دقیق آب و هوا یا تشخیص دقیق بیماری‌هایی مانند سرطان. Rhodri Davies، رئیس بخش سیاست و برنامه‌ریزی موسسه خیریه Charities Aid Foundation می‌گوید: «اگر این سیستم‌ها برای کارهایی مانند رای‌گیری یا دسترسی به سرویس‌های عمومی مورد استفاده قرار گیرند، علاوه بر انقلابی که همین حالا نیز شروع شده، مشکلات مختص به خود را نیز همراه

دارند.» David Stern، مدیر تحقیقات شرکت تکنولوژیک G-Research، شرکتی که با کمک تکنولوژی یادگیری ماشینی، در زمینه پیش‌بینی قیمت بازارهای مالی فعالیت دارد، معتقد است یکی از پرکاربردترین روش‌های برنامه‌ریزی سیستم‌های هوش مصنوعی، روش داده‌کاوی جعبه سیاه نام دارد: «این شیوه یکی از محبوب‌ترین شیوه‌های برنامه‌ریزی در زمینه سیستم‌های عصبی هوشمند (neural networks) است. در این روش الگوهای قرارگیری میلیون‌ها پارامتر که به شیوه‌های پیچیده‌ای با یکدیگر در ارتباط هستند، مشخص می‌شود. توضیح روابط این پارامترها حتی برای مهندسان و محققان بسیار مشکل است.» یکی دیگر از روش‌ها «deep reinforcement learning» (یادگیری عمیق تقویت شده) است که در آن، طراح به‌صورت اختصاصی هدف‌های رفتاری یک سیستم را مشخص می‌کند و سیستم به‌صورت اتوماتیک با کمک تکنولوژی یادگیری ماشینی و تعامل با محیط اطراف، در راستای تحقق هدف عمل می‌کند. Stern می‌گوید در روش دوم نیز نحوه ادراک دلیل رفتار سیستم از سوی انسان‌ها بسیار مشکل است.

محققان صنعت تکنولوژی تلاش زیادی می‌کنند تا راه‌های جدید برای درک الگوریتم‌های دست‌ساخته خود پیدا کنند و آنها را تحت کنترل خود بگیرند. Adrian Weller مدیر برنامه‌نویسی بخش هوش مصنوعی در موسسه The Alan Turing Institute معتقد است شیوه فهمیدن اینکه یک سیستم هوش مصنوعی چگونه تصمیم‌گیری می‌کند، بستگی به میزان حیاتی بودن تصمیم مورد نظر دارد: «اگر می‌توانستیم مطمئن شویم که یک سیستم به درستی عمل می‌کند و در تصمیم‌های خود تبعیض آشکار اعمال نمی‌کند، حقیقتا دلیلی ندارد که بخواهیم به دنبال دلیل تصمیمات گرفته‌شده برویم.»

مثلا در مورد تکنولوژی خودروهای خودران یا تشخیص‌های پزشکی، داشتن ماشینی که بتواند عمدتا درست و طبق برنامه عمل کند و جان انسان‌ها را نجات دهد، مهم‌تر از فهمیدن نحوه عملکرد این سیستم‌هاست. Weller می‌گوید: «برای تشخیص پزشکی، اگر سیستمی به‌صورت متوسط حتی در ۹۵ درصد مواقع تشخیص درست داشته باشد، حقیقتا فرقی نمی‌کند که چرا و چگونه این نتیجه را اعلام کرده است. مهم این است که جان یک انسان نجات داده شده است.» اما در شرایط دیگر، مانند وقتی که هوش مصنوعی در دنیای اثبات جرم خلافکاران مورد استفاده قرار می‌گیرد و باید ثابت کند که شخصی جرمی مرتکب شده، ما حتما باید بفهمیم که این تصمیم چرا و بر چه مبنایی گرفته شده است.

Weller عنوان می‌کند: «مثلا الگوریتم‌های طراحی شده در حوزه قضایی، اعلام می‌کند که شخصی باید برای ۶ سال به زندان برود، دلیل آن باید به وضوح مشخص باشد و در صورت احتمال وقوع اشتباه، تصحیح شود. از نظر من سیستم عملکرد الگوریتم‌های مورد استفاده در حوزه‌های مختلف باید هدف مشخصی داشته باشند و روشن باشد این الگوریتم‌ها برای انجام چه کاری برنامه‌ریزی و طرح‌ریزی شده‌اند. این مساله در مورد شغل‌هایی که زمانی اختصاصی انسان‌ها بوده، از حساسیت بیشتری برخوردار است. با اعمال مسائل امنیتی و شفاف‌سازی می‌توان ریسک‌های این صنعت نوین پرخطر را کمتر کرد.» Adrian Weller معتقد است اگر سیستم‌های هوشمند به درستی عمل کنند، نیازی نیست همیشه دلیل رفتار آنها را بفهمیم.

مساله شفاف‌سازی اهداف، به تصویب قوانین جدیدی به نام European Union’s GDPR از سوی اتحادیه اروپا منجر شده است اما سوالی که اینجا مطرح می‌شود این است که آیا ما انسان‌ها از اینکه برخی از تصمیم‌گیری‌های اساسی خود را روی دوش دوست‌های ماشینی هوشمند خود بیندازیم و حتی دلیل تصمیم‌گیری‌های آنها را نفهمیم خوشحال خواهیم بود؟ یا اینکه این دستاورد به مرور آزادی انسان‌ها را کمتر کرده و مارا به برده‌هایی برای اتوماسیون هوشمند دست‌ساخته خود بدل خواهد کرد؟ David Stern معتقد است: «من مطمئنم تا زمانی که با آگاهی و احتیاط جلو می‌رویم و اصول امنیتی را رعایت می‌کنیم، هوش مصنوعی قطعا برای ما مشکلی ایجاد نخواهد کرد.» اگر می‌توان به قضاوت هوش مصنوعی اعتماد کرد، پس نپرسید چرا.