خط فقر امنیت سایبری جابه‌جا می‌شود؟

در این رویداد که یکی از مهم‌ترین گردهمایی‌ها برای بررسی موضوعات مرتبط با امنیت فضای سایبری به حساب می‌آید، کارشناسان و مدیرانی از شاخص‌ترین شرکت‌های فناوری جهان، نهادهای دولتی و دانشگاهی حضور پیدا ‌کردند و در قالب سخنرانی‌ها و پنل‌ها‌ی تخصصی، به بحث درباره مهم‌ترین چالش‌های این حوزه پرداختند. هوش مصنوعی که این روزها یکی از داغ‌ترین موضوعات در دنیای فناوری به حساب می‌آید نیز محور بسیاری از گفت‌وگوهای این رویداد قرار گرفت. در یکی از پنل‌ها‌ی برگزار شده در این رویداد که بر آینده امنیت سایبری شرکت‌ها با ظهور فناوری‌های جدید تمرکز داشت، پیش‌بینی شد که احتمالا هوش‌ مصنوعی تعریف خط فقر امنیت سایبری در شرکت‌ها را تغییر دهد و سازمان‌هایی که توان مالی و فنی لازم برای همگام شدن با آخرین پیشرفت‌های هوش مصنوعی را نداشته باشند، با بحران‌هایی جدی در زمینه حفاظت از داده‌ها در برابر هکرها مواجه شوند.

پیشی‌گرفتن خطرات از مزیت‌ها

بر اساس گزارش وال‌استریت‌ژورنال از این رویداد، کارشناسان ارشد و سرویس‌دهندگان خدمات دیجیتال معتقدند که سیستم‌های مبتنی بر هوش مصنوعی-به خصوص هوش مصنوعی مولد- به توانایی ویژه‌ای در حفاظت از سیستم‌های سازمان‌ها در برابر هکرها دست پیدا خواهند کرد. این مساله هم می‌تواند در یافتن آسیب‌پذیری‌ها و برجسته کردن فایل‌های خطرناک در میان خیل عظیم داده‌ها موثر باشد و هم به ارائه ابزارهای مناسب برای تحلیل بهتر سیستم‌ها در برابر خطرات بالقوه کمک کند. با این‌حال مساله این است که اساسا همه شرکت‌ها به چنین سیستم‌های پیشرفته‌ای دسترسی ندارند و این ابزارها صرفا در اختیار سازمان‌های ثروتمندی قرار خواهد داشت که هر ساله بودجه‌های قابل‌توجهی را به مساله امنیت سایبری شرکت و کاربرانش تخصیص می‌دهند.

شان جویس، از مدیران سرشناس در حوزه امنیت سایبری و حفاظت از حریم خصوصی که در قامت رگولاتور ارشد شرکت خدمات مشاوره‌ای PricewaterhouseCoopers‌ نیز فعال است، در یکی از پنل‌های تخصصی این رویداد که به همت موسسه غیرانتفاعی Aspen برگزار شده بود، تصریح کرد: «با شرایط موجود، اکنون این نگرانی وجود دارد که در اختیار داشتن یا نداشتن سیستم‌های مبتنی بر هوش مصنوعی مولد، امنیت سایبری شرکت‌ها را گرفتار یک دوقطبی کند.» وی در تشریح دلیل نگرانی خود از روند پیش‌رو گفت: «در حالی که سیستم‌های مبتنی بر هوش مصنوعی می‌توانند در بهبود سیستم‌های امنیتی شرکت‌ها به متخصصان این حوزه کمک شایانی کنند، اما در عین حال امکانات مشابهی نیز در اختیار هکرها می‌گذارند که دست آنها را در ایجاد ایمیل‌های فیشینگ شخصی‌سازی شده باز می‌گذارد. از آنجا که این پیام‌ها به لطف هوش مصنوعی، عاری از هر خطای گرامری و نوشتاری شاخصی هستند که معمولا به مخاطب ایمیل‌ها در شناخت این پیام‌‌های جعلی کمک می‌کنند، شانس هکرها برای به دام انداختن قربانیان احتمالی را به میزان قابل‌توجهی بالا می‌برد.»

به عبارتی، هر دسترسی همزمان هکرها و کارشناسان امنیتی شرکت‌ها به فناوری‌های خاصی که به تشخیص دقیق‌تر آسیب‌پذیری‌ها می‌انجامد، راه را برای ایجاد مزیت ویژه در بهبود سیستم‌های امنیتی شرکت‌ها می‌بندد. هیثر ادکینز، نایب رئیس بخش مهندسی امنیتی شرکت گوگل، در بخشی از سخنان خود در این پنل تاکید کرد: «در واقع پیشرفتی که اخیرا در بهره‌برداری هکرها از آسیب‌پذیری‌های روز صفر ایجاد شده، مستقیما متاثر از همین پیشرفت‌هایی است که در پلتفرم‌های هوش مصنوعی ایجاد شده است.» آسیب‌پذیری روز صفر یا همان‌Zero-Day، به ریسک‌های امنیتی موجود در سیستم‌های نرم‌افزاری سازمان‌ها اشاره دارد که به صورت عمومی شناخته شده نیستند و شرکت سازنده از آنها آگاهی ندارد؛ در نتیجه، مهاجم از این آسیب‌پذیری‌ها برای دسترسی به سیستم آسیب‌پذیر استفاده می‌کند. ادکینز معتقد است: «بسیاری از سازمان‌های کوچک - مثلا یک کلینیک دندانپرشکی- از کامپیوترهایی استفاده می‌کنند که سیستم‌عامل آنها مرتبا به‌روز‌رسانی نمی‌شود. در چنین شرایطی، ریسک‌های حاصل از توسعه‌ هوش مصنوعی، از پیشرفت فناورانه آن سازمان کوچک پیشی می‌گیرد و راه برای ظهور و بروز خطرات جدی در امنیت داده‌های آن مجموعه باز می‌شود.»

بیم و امید موجود برای حوزه هوش مصنوعی به حدی است که آژانس امنیت زیرساختی و سایبری روز دوشنبه هفته گذشته با انتشار یک مجموعه استراتژی، به تشریح چگونگی به‌کارگیری هوش مصنوعی و بهره‌برداری از آن برای دستیابی به راهکاری برای حفاظت از زیرساخت‌های حیاتی در برابر هک‌هایی پرداخت که بر مبنای هوش مصنوعی توسعه یافته‌اند. این آژانس - که بخشی از دپارتمان امنیت ملی آمریکاست- در اطلاعیه خود تصریح کرده است که به همکاری با دیگر آژانس‌های دولتی و بخش‌های خصوصی برای توسعه، تست و ارزیابی ابزارهای مناسب ادامه خواهد داد.

با این حال، طبیعت دوگانه کاربردهای فناورانه کار را به جایی می‌رساند که در نهایت سازمان‌هایی که منابع مالی و مهارت‌های فنی کافی برای درک ساختارهای مبتنی بر هوش مصنوعی و بهره‌برداری از آنها برای مقابله با خطرات برخاسته از همین پیشرفت‌های فناورانه را در اختیار ندارند، محکوم به مواجهه با چالش‌ها و بحران‌های جدی باشند. حتی سخنرانان حاضر در این پنل معتقدند که این مساله، حتی برای شرکت‌هایی که توانمندی کافی برای مدیریت چنین مسائلی را دارند نیز چالشی جدی به حساب خواهد آمد.

با این حال جامیکا گرین آرون، افسر ارشد امنیت اطلاعات شرکت مدیریت هویت اوکتا، همچنان به توانمندی‌های حاصل از توسعه هوش مصنوعی امیدوار است و می‌گوید: با قابلیت‌هایی که توسعه هوش مصنوعی در زمینه بازبینی و رفع اشکال کدها و حتی کدنویسی در اختیارمان قرار می‌دهد، دفاع از سازمان‌ها در برابر ناشناخته‌ها به امری جذاب و هیجان‌انگیز برای ما تبدیل می‌شود.

آسیب‌های انتخاباتی هوش مصنوعی

در کنار این رویداد که با تمرکز بر تاثیرات امنیتی توسعه هوش مصنوعی برگزار شد، روز چهارشنبه رویداد دیگری نیز با عنوان اجلاس همکاری‌های اقتصادی آسیا-اقیانوسیه (Asia-Pacific Economic Cooperation Summit) در شهر سانفرانسیسکو در جریان بود که برخی از مدیران شرکت‌های مطرح فناوری، با حضور در پنل‌هایی به بررسی موضوع سلامت انتخابات پیش‌روی آمریکا در سایه تاثیرات هوش مصنوعی بر فضای مجازی پرداختند. در همین راستا، سم آلتمن، مدیرعامل شرکت Open AI - که مالک سرویس چت ‌جی‌پی‌تی است- در حاشیه صحبت‌های خود در یکی از پنل‌های این رویداد، به تشریح اهمیت هوش مصنوعی برای آینده بشریت پرداخت و گفت: «اکنون بشر در مسیر خودتخریبی قرار دارد و اگر بنا باشد برای ده‌ها، صدها یا میلیون‌ها سال به شکوفایی ادامه دهد، هوش مصنوعی می‌تواند به عنوان یکی از راهکارهای جدی در نظر گرفته شود.» آلتمن که در این پنل در همراهی با کریس کاکس از شرکت متا و جیمز ماینکا از گوگل صحبت می‌کرد، در حاشیه صحبت‌هایی که معطوف به ستایش آینده هوش مصنوعی بود، نیم‌نگاهی به خطرات این فناوری داشت و از تاثیرات آن بر انتخابات پیش‌رو در آمریکا سخن گفت.

آلتمن معتقد است: «وقتی صحبت از انتخابات و برگزاری سالم آن به میان می‌آید، خطرات ناشی از فناوری‌های هوش مصنوعی، با آنچه تا امروز در قالب عکس‌ها و ویدئوهای جعلی مشاهده کرده و آن چیزی که می‌توانیم تصور کنیم بسیار متفاوت است و باید انتظار بروز آسیب‌های جدی در ژانری کاملا متفاوت را داشته باشیم.» مدیرعامل‌Open AI  افزود: «یکی از خطرات هوش مصنوعی که هنوز نسبتا برای ما ناشناخته است و به درستی نمی‌دانیم چگونه عمل خواهد کرد، تاثیراتی است که این فناوری می‌تواند در متقاعدسازی افراد و پیاده‌سازی شخصی‌سازی شده تکنیک‌های آن ایجاد کند.»

کاکس نیز در صحبت‌های خود با اشاره به اینکه شرکت متا برنامه متمرکزی را برای مدیریت فضای رسانه در دوره انتخابات پیش‌رو تدارک دیده است، تاکید کرد: «باید توجه داشته باشیم که همان‌طور که فناوری‌های هوش مصنوعی می‌توانند به تشدید ظهور مسائلی در زمینه اطلاع‌رسانی غلط و شایعه کمک کند، می‌تواند در کشف محتوای مضر و مشکوک پیش از انتشار در سطح وسیع نیز کارآیی داشته باشد.» با این‌حال وی توضیح بیشتری درباره اینکه رویکرد این شرکت در کنترل فضای رسانه در برابر سوءاستفاده از فناوری در زمان برگزاری این رخداد مهم چه خواهد بود ارائه نداد و فقط گفت: «به ما اعتماد کنید».

آلتمن که در مدت اخیر اظهاراتی پیرامون ضرورت به‌کارگیری برخی نظارت‌های دولتی برای کنترل فناوری‌های مرتبط با هوش مصنوعی داشته است، در جمع‌بندی صحبت‌های خود در این پنل تاکید کرد: «در شرایط حاضر، هنوز نیاز به اعمال تغییراتی جدی در بحث رگولاتوری این حوزه در حضور نسخه‌های فعلی سیستم‌های مبتنی بر این فناوری نیست. اما بدون شک در آینده نه چندان دور، این نیاز شکل جدی‌تری به خود خواهد گرفت.»

به نظر می‌رسد اکنون میان بزرگ‌ترین فعالان حوزه تکنولوژی، این اتفاق نظر وجود دارد که هوش مصنوعی فضای مجازی را به کلی دستخوش تغییر خواهد کرد و باید پیش از آنکه با خطرات توسعه این فناوری غافلگیر شویم، نسبت به بروز و مواجهه با آنها آگاه باشیم.