فیس‌بوک، هوش مصنوعی را اخلاقی می‌کند

صدای گوگل دوپلکس آنقدر شبیه به انسان بوده و هوشمندانه است، به گونه‌ای که توسط مخاطبان روبات بودن و مصنوعی بودن مکالمات آن، کاملا غیر قابل تشخیص است. پس از معرفی و رونمایی از این محصول جدید، بلافاصله جنجال‌های بسیاری در فضای مجازی به‌وجود آمد. آنها بر این باورند که این فناوری فوق پیشرفته و فوق هوشمند، بسیار غیر اخلاقی بوده و مرزهای اخلاقیات را زیر پا خواهد گذاشت چراکه کاربران می‌توانند بسیاری از جرائم را به این صورت انجام بدهند بدون آنکه طرف مقابلشان متوجه شود این یک روبات بوده است. به گفته کارشناسان و تحلیلگران فعال در این حوزه، این چالش‌های اخلاقی می‌تواند عواقب ناگوار پیشرفت تکنولوژی و علم در سال‌هایی نه چندان دور را به ما گوشزد کند. یک تکنولوژی که می‌تواند بسیار شبیه به انسان عمل کند، صحبت کند، با مخاطب موردنظر موضوعات مختلف بحث و مذاکره کند، به‌طور قطع می‌تواند در آینده ما را با مشکلات و معضلات بزرگی مواجه سازد.

بر‌اساس گزارش فوربس، حالا به نظر می‌رسد که فیس‌بوک به‌عنوان یکی از بزرگ‌ترین‌ غول‌های تکنولوژی در جهان تصمیم گرفته است به نگرانی‌های امنیتی درخصوص توسعه فناوری‌های نوینی همچون هوش مصنوعی پاسخ داده و به منظور ارتقای امنیت سایبری، حفاظت از اطلاعات و حریم خصوصی کاربران و همچنین رعایت اخلاقیات موسسه و مرکزی تحقیقاتی و پژوهشی جدیدی را ایجاد و راه‌اندازی کند که در آن متخصصان و دانشمندان فعال در این حوزه به بررسی دقیق فعالیت‌های هوش مصنوعی پرداخته و با تحقیقات جدید به رعایت بیشتر مسائل اخلاقی در این فناوری کمک بسزایی کنند. گفته می‌شود فیس‌بوک به این منظور قصد دارد سرمایه‌گذاری کلانی به ارزش ۵/ ۷ میلیون دلار را اختصاص دهد تا در حوزه‌هایی همچون بهداشت و درمان، تکنولوژی و همچنین حقوق بشر تعامل میان بشر و هوش مصنوعی بیشتر از پیش شود.