طرح آخر‌الزمانی رئیس پنتاگون

جیمز متیس، وزیر دفاع ایالات‌متحده در یک یادداشت از دونالد ترامپ، رئیس‌جمهوری این کشور خواسته است تا هرچه زودتر یک راهبرد برای هوش مصنوعی تدوین کند. به نوشته روزنامه نیویورک‌تایمز، جیمز متیس استدلال کرده است که آمریکا نباید در این زمینه نظاره‌گر پیشرفت چین و سایر کشورها باشد. او در نهایت نیز به مقاله اخیر هنری کیسینجر، وزیر سابق خارجه آمریکا در مجله آتلانتیک اشاره می‌کند و خواستار تاسیس کمیسیونی از سوی رئیس‌جمهوری آمریکا می‌شود. او همچنین خواستار آن شد که ترامپ به آمریکا این اطمینان را ببخشد که ایالات‌متحده نه تنها در حوزه دفاعی، بلکه برای حوزه تغییر شکل شرایط انسانی نیز دغدغه دارد. متیس همچنین چهار پارگراف از مطلب کیسینجر را عینا به یادداشت ضمیمه می‌کند و آن را برای ریاست‌جمهوری آمریکا ارسال می‌کند. یادداشت متیس که تاکنون از آن گزارشی منتشر نشده بود و توسط نیویورک‌تایمز مورد بررسی قرار گرفته است، منعکس‌کننده نگرانی روزافزون مقامات دفاعی آمریکا در حوزه هوش مصنوعی است. مشاوران و برنامه‌ریزان با بررسی تهدیدات بالقوه فکر می‌کنند که تغییردهنده بازی در جنگ‌های بعدی هوش مصنوعی باشد. دولت چین سهم هوش مصنوعی را در استراتژی ملی افزایش داده است. سازمان‌های علمی و تجاری در چین درخصوص هوش مصنوعی همکاری نزدیکی با ارتش چین دارند. آنها نام این پروژه را «ادغام مدنی و نظامی» نامیده‌اند. هنوز تاثیر این یادداشت مشخص نیست.

اگرچه در ماه مه، سه هفته پیش از اینکه یادداشت متیس برای ترامپ فرستاده شود، کاخ سفید اعلام کرده بود که دولت ممکن است کارگروهی برای مطالعات هوش مصنوعی ایجاد کند اما منتقدان می‌گویند که کاخ سفید هنوز هیچ خط مشی روشنی درباره هوش مصنوعی تعیین نکرده است. مقامات دفتر تعیین خطوط علوم و فناوری در آمریکا که باید نقش رهبری در تعیین یک برنامه ‌کاری برای هوش مصنوعی داشته باشد، می‌گویند: اولویت توسعه و پژوهش ملی با مطالعات در حوزه هوش مصنوعی بوده و این بخشی از راهبرد امنیت ملی و دفاعی رئیس‌جمهوری است.

با این وجود به نظر می‌رسد که پنتاگون راسا خود به‌دنبال اهداف جاه‌طلبانه‌اش در حوزه هوش مصنوعی است. محققانی به‌ویژه از سیلیکون‌ولی همکاری‌های تنگاتنگی با ارتش آمریکا دارند.  در اواخر ماه ژوئن، پنتاگون اعلام کرد که مرکز مشترک هوش مصنوعی را تاسیس کرده است. هنوز مقامات پنتاگون نگفته‌اند چند نفر از افراد قرار است در این مرکز مشغول به‌کار شوند و پایگاه آن کجاست، درحالی که قرار است از ماه بعد کار خود را آغاز کند. گفته می‌شود امکان دارد چندین دفتر در سراسر آمریکا پراکنده شود.  بنا به گفته کارشناسی که با موضوع آشنا است و خواسته که نامش فاش نشود، وزارت دفاع برای این مرکز درخواست بودجه ۷۵ میلیون دلاری کرده که در مجموع برای ۵ سال ۷/ ۱ میلیارد دلار خواهد بود.  اسم این مرکز جیک و راهی برای ارائه تسهیلات به ده‌ها پروژه هوش مصنوعی خواهد بود. در این زمینه نام پروژه «Maven» نیز دیده می‌شود و این برنامه شامل شناسایی افرادی است که تصویر آنها از سوی پهپادها گرفته می‌شود و پروژه با همکاری پنتاگون و سیلیکون ولی درحال پیشرفت است.  حول‌وحوش زمان نگارش یادداشت متیس به ترامپ، هزاران نفر از کارکنان گوگل به رفتار این شرکت به‌دلیل همکاری و مشارکت در پروژه «Maven» معترض بودند. بعد از اینکه اعتراض‌ها علنی شد، گوگل همکاری با این پروژه را قطع کرد.  اعتراض‌ها شاید پنتاگون را شگفت‌زده کرد، چراکه کمپانی‌های بزرگ فناوری جزو مقاطعه‌کاران قدیمی پنتاگون به‌حساب می‌آیند و مدت زمان زیادی است که پنتاگون و سیلیکون ولی با یکدیگر همکاری می‌کنند. طنز ماجرا این است که شرکت‌های کمی هستند که مایل به همکاری با پنتاگون نیستند و آنها روی پروژه‌ای کار می‌کنند که «دراپا» نام دارد که روی فناوری خودروهای خودران کار می‌کنند و کمپانی‌ها قصد دارند این نوع خودروها را تجاری‌ساز کنند. اما در نگاه محققان خلق خودروی روباتیک با خلق اسلحه روباتیک بسیار متفاوت است. آنها نگران هستند اسلحه‌های روباتیک یک تهدید غیرمعمول برای بشریت باشند.  السا کانیا که یکی از کارشناسان خارج از مرکز موسسه امنیت جدید آمریکایی است و درباره خط‌مشی‌های امنیتی درخصوص آمریکا فعالیت می‌کند، می‌گوید: این لحظه‌ای منحصربه‌فرد است و ضد فعالیت‌های شدیدی از سوی سیلیکون ولی دیده می‌شود. او می‌افزاید: برخی از این شرکت‌ها با موقعیت سیاسی کنار آمده‌اند اما دارای نگرانی‌های خاص خود در زمینه نظامی شدن این فناوری‌ها نیز هستند.

مقامات مرکز مشترک هوش مصنوعی امیدوارند به‌زودی این شکاف به‌وجود آمده پر شود. برندن مک‌کورد، یکی از اعضای نیروی دریایی سابق آمریکا و یکی از فعالان عرصه هوش مصنوعی که در این مرکز فعالیت دارد، ماه گذشته در یک جلسه عمومی با فعالان سیلیکون ولی به آنها گفت: یکی از نقاط قوت ما استعداد‌ها و نوآوری‌هایی است که در بخش‌خصوصی و موسسات دانشگاهی ما وجود دارد. مرکز ما به‌دنبال همکاری بیشتر با فعالان این صنعت و دانشگاهیان است.  او افزود: مرکز با نوآوران قدیمی و غیرقدیمی برای مدت‌های طولانی است که همکاری دارد، به‌عنوان مثال شرکت لاکهید مارتین از شرکای قدیمی پنتاگون به‌حساب می‌آید و سیلیکون ولی نیز از شرکای تازه‌کار پنتاگون به‌حساب می‌آید.  پنتاگون تاکنون درخصوص پروژه «Maven» با شرکت همکاری نزدیک دارد اما امیدوار است که این تعداد را افزون کند و از شرکت‌های بی‌میل به همکاری کاسته شود. این تابستان، محققان پنتاگون به همراه تعداد اندکی از تاثیرگذاران هوش مصنوعی در سیلیکون ولی روی هوش مصنوعی سریع که تلاش برای بسط این فناوری است، همکاری داشته‌اند.

سیستم‌های خودران مبتنی بر الگوریتم‌هایی هستند که می‌توانند تشخیص اشیا را به‌وسیله تجزیه‌وتحلیل داده‌های وسیع یاد بگیرند. پروژه بسط سریع هوش مصنوعی می‌تواند سرعت یادگیری هوش مصنوعی را ارتقا دهد.  پنتاگون پرچم صلح را در برابر سیلیکون ولی‌ بالا برده است. در عین حال مک‌کورد از مرکز مشترک هوش مصنوعی می‌گوید که این مرکز اخلاقیات و دغدغه‌های انسانی را برای پروژه‌های کوتاه‌مدت و بلندمدت خود مدنظر قرار می‌دهد.

سوفی شارلوت فیشر، یک محقق از مرکز مطالعات امنیتی در دانشگاه زوریخ که روی ارتباط دانشگاه و صنایع تحقیق می‌کند در این خصوص می‌گوید: «این یک راه سریع برای تشنج‌زدایی با محققان هوش مصنوعی است.» او می‌افزاید: درخواست‌های آنها باید به روشنی فهمیده شود که توسعه و ارسال فناوری‌هایی از این دست چه معنایی می‌تواند داشته باشد. فیشر می‌گوید: شکاکان می‌خواهند جزئیات را ببینند. تاکنون طرح‌ها بسیار انتزاعی باقی مانده است. آنها به‌دنبال چه سیستم‌هایی هستند؟ آیا می‌خواهند سیستم‌های تسلیحاتی خود را به هوش مصنوعی وصل کنند؟ رابرت ورک، معاون سابق وزیر دفاع و کسی که روی پروژه «Maven» کار می‌کند نگران است که معترضان گوگل پروژه را بد فهمیده باشند، درحالی‌که هنوز ارتباطی با اتصال آن به سلاح‌های مرگبار مطرح نیست و به‌طور آشکار گفته‌اند که این پروژه در جهت نظامی‌گری است. او در مصاحبه‌ای که اخیرا داشته، گفته است: نیاز است که یک بحث آشکار درباره هوش مصنوعی داشته باشیم و نظر همه طرف‌ها را بشنویم.

 هوش مصنوعی چیست؟

تئوری و توسعه سیستم‌های کامپیوتری که قادر به انجام وظایفی باشند که معمولا به هوش انسانی نیاز است، مثل درک تصویری، تشخیص صدا، تصمیم‌گیری و ترجمه چند زبان. برخی از نظامی‌ها علاقه‌مند هستند که این هوش را در حوزه نظامی به‌کار گیرند اما برخی دانشمندان مانند استیفن ‌هاوکینگ بارها هشدار داده‌اند که توسعه هوش مصنوعی می‌تواند به نابودی دنیا بینجامد، چرا که هوش مصنوعی قادر به تصمیم‌گیری شخصی است، بدون آنکه مانند انسان دغدغه محذورات اخلاقی را داشته باشد.


استراتژی استراتژیست آمریکایی برای آینده بشریت

هنری کیسینجر، وزیر امورخارجه اسبق آمریکا در آخرین مطلب خود نسبت به تهدیدات هوش مصنوعی برای آینده بشریت هشدار داد. هنری کیسینجر در مطلبی که در مجله آتلانتیک با تیتر آخرالزمان منتشر شده است، می‌گوید که چطور روشنگری پایان می‌یابد و هشدار داد که هوش مصنوعی ممکن است جهان را به جایی برساند که در آن انسان‌ها دیگر قادر به فهم هیچ چیزی نباشند و ما باید از همین الان خودمان را برای این خطر آماده کنیم. او این مطلب را با محوریت پرسش‌هایی نظیر اینکه چه می‌شود اگر ماشین‌ها ارتباط با یکدیگر را یاد بگیرند و پس از آن شروع به تعیین اهدافی برای خود کنند و اینکه چه می‌شود اگر آنها به حدی باهوش شوند که تصمیم‌هایی ماورای ظرفیت ذهن انسان بگیرند، نوشته است. کیسینجر می‌گوید علاقه‌اش به بحث هوش مصنوعی و همین‌طور زنگ خطر درباره این مساله برای او زمانی پدیدار شد که فهمید یک برنامه کامپیوتری توانسته در یک بازی به‌نام «Go» که حتی از شطرنج پیچیده‌تر است، به تسلط و استادی کامل برسد. چیزی که درباره این ماشین جالب بوده این است که صرفا از طریق تمرین دادن خودش توانسته در این بازی تسلط پیدا کند و به‌گونه‌ای رفتار کرده که از اشتباهاتش درس گرفته و بر مبنای آنها الگوریتم‌های خودش را باز تعریف کرده و درنهایت مفهوم تمرین باعث تکامل می‌شود را عملی کرده است.

کیسینجر در این مقاله نوشت: ما در حال تجربه انقلاب تکنولوژیک فراگیر هستیم که هنوز نتوانسته‌ایم به‌طور کامل تبعاتش را شناسایی کنیم و ممکن است این انقلاب به جهانی منجر شود که چنان به ماشین‌های مبتنی بر اطلاعات و الگوریتم متکی باشد که دیگر در آن خبری از هنجارهای اخلاقی و فلسفی نباشد. کیسینجر این مورد را با ذکر مثال یک اتومبیل خودران مطرح می‌کند. او می‌گوید راندن یک خودرو نیازمند قوه قضاوت برای شرایط غیرقابل پیش‌بینی است. او می‌پرسد اگر چنین خودرویی در موقعیتی قرار بگیرد که مجبور به تصمیم‌گیری کشتن پدربزرگ یا کشتن یک کودک شود چه تصمیمی خواهد گرفت و چه کسی را و به چه علت انتخاب خواهد کرد. او در ادامه این مقاله می‌نویسد: هوش مصنوعی خیلی فراتر از به اصطلاح اتوماسیونی است که ما به آن عادت داریم چون هوش مصنوعی قابلیت تعیین اهداف را برای خود دارد. به عبارت دیگر هوش مصنوعی از طریق فرآیندهایش کاملا قادر به تولید قابلیتی برای خودش است که تا پیش از آن تصور می‌شود که صرفا مختص به انسان‌ها است. به گفته کیسینجر خطر هوش مصنوعی شاید کمی خوش‌خیم‌تر از چیزی باشد که فکر می‌کنیم اما عمده این خطر ناشی از این است که هوش مصنوعی صرفا به‌خاطر عدم برخورداری ذاتی از پیش‌زمینه و بافت. دستورات انسانی را سوءتفسیر کند. او به یک مورد اخیر اشاره کرد که یک روبات چت‌کننده به نام «TAY» که برای یک گفت‌وگوی دوستانه در قالب یک دختر ۱۹ ساله طراحی شده درنهایت در روند گفت‌وگوهایش به جایی رسید که پاسخ‌های نژادپرستانه و با تبعیض جنسیتی و بسیار تحریک‌کننده ارائه داد. کیسینجر گفت: خطر اصلی این است که هوش مصنوعی مطابق با توقع‌هایی که انسان مدنظر دارد عمل نکند و این منجر به دور شدن فاجعه‌بار آن از نتایج درنظر گرفته شده بشود. همچنین کیسینجر هشدار داد که یک خطر این است که هوش مصنوعی می‌تواند به جهت مصلحت خودش بیش از حد باهوش شود. او گفت: به‌عنوان مثال در بازی کامپیوتری Go هوش مصنوعی توانست دست به یکسری حرکت‌های بی‌سابقه‌ای بزند که حتی انسان‌ها تاکنون نتوانسته‌اند به آن فکر کنند. او پرسید آیا این حرکات فراتر از ظرفیت مغز انسان بوده است یا اینکه آیا انسان‌ها اکنون می‌توانند حالا که یک استاد جدید آنها را نشان داده بتوانند آنها را یاد بگیرند؟ کیسینجر همچنین این حقیقت را مطرح کرده که هوش مصنوعی می‌تواند بسیار سریع‌تر از ذهن انسان چیزی را یاد بگیرد. او به یک مورد اخیر دیگر یعنی یک برنامه کامپیوتری به نام «آلفا زیرو» اشاره کرد که جوری شطرنج را بازی کرد که هرگز در تاریخ بازی شطرنج سابقه نداشته است و تنها در چند ساعت به سطحی از مهارت در این بازی رسید که انسان‌ها ۱۵۰۰ سال برای رسیدن به این سطح مهارت زمان صرف کردند و آن هم تنها با یاد گرفتن قوانین پایه‌ای این بازی حاصل شد. کیسینجر نتیجه‌گیری کرد که این فرآیند یادگیری سریع در عین حال به این معنی است که هوش مصنوعی اشتباهات را هم می‌تواند خیلی سریع‌تر و در ابعادی بزرگ‌تر از انسان مرتکب شود.