یادداشت یک copy

کمی عجیب و جالب‌توجه است که تحقیقات موسسات پژوهشی معتبر نشان می‌دهد که رویکرد دوم یعنی تپه نوردی بیشتر مورد استقبال شرکت‌ها قرارگرفته است و بازدهی آن‌هم بیشتر نشان داده‌شده است. این پژوهش‌ها آشکار کرده است که شرکت‌های نوآور، حتی زمانی که ایده روشنی از شیوه کاربرد تکنولوژی‌های جدید در کسب‌وکار خود ندارند، گرایش زیادی به تحقیق بر روی فناوری جدید نشان می‌دهند و به چگونگی ‌به‌کارگیری آن می‌پردازند. اینترنت اشیا، خودکارسازی نسل چهارم و هوش مصنوعی ازجمله چنین تکنولوژی‌هایی هستند که همواره یکی از گزینه‌های مهم استراتژی تپه نوردی شرکت‌ها است.

امروزه خدمات مرتبط باهوش مصنوعی خود به‌عنوان یک کسب‌وکار جدید رونق یافته است و تعدادی از شرکت‌های دانش‌بنیان در کشور ما با تحلیل داده‌ها و ارایه بینش‌های مدیریتی سودمند برآمده از آن‌ها ماموریت خود را در یاری‌رساندن به تصمیم‌گیری‌های مدیریتی بنگاه‌های بزرگ تعریف کرده‌اند. این گرایش بسیار مطلوب است چون ضمن اینکه می‌تواند در کارآفرینی نیروهای زبده نقش موثری ایفا کند، به افزایش سطح بلوغ مدیریتی و تصمیم‌گیری شرکت‌های کشورمان نیز کمک خواهد کرد؛ اما طبیعتا هر جا که منفعت سرشاری باشد، ریسک‌های چشم‌گیری نیز وجود خواهد داشت که اگر در نظر گرفته نشوند احتمالا منابع مهمی‌ هدر خواهد رفت و ازآنجاکه هنوز این صنعت بالغ نشده است یادآوری این ریسک‌ها به فعالان این حوزه بسیار ضروری است ضمن آنکه با گسترش این‌گونه خدمات باید مقررات مناسبی نیز متناسب با آن وضع گردد.

تحلیل ریسک سیستم‌های هوش مصنوعی

اکنون بسیاری از سازمان‌ها فهمیده‌اند که سیستم‌های هوش مصنوعی می‌تواند برایشان بازدهی زیادی را به همراه داشته باشد و به‌نوعی این فناوری از پتانسیل شکل‌دهی کسب‌وکارهای آینده برخوردار است؛ اما به‌کارگیری این فناوری با ریسک‌هایی همراه است که برخی از شرکت‌های پیش رو آن‌ها را تجربه کرده‌اند و یا با بهره‌گیری از روش‌های آنالیز ریسک به تحلیل آن و بررسی رویکردهای موثر مواجهه‌ای پرداخته‌اند که میزانی از نتایج آن‌که منتشرشده است نشان‌دهنده وجود مخاطرات فراوانی در این حوزه است. بااین‌همه نه پرهیز از هوش مصنوعی امکان‌پذیر است و نه چشم بستن بر ریسک‌ها و مخاطرات آن. پس شرکت‌ها باید همراه با تیم‌های فنی تحقیق و توسعه این تکنولوژی، گروه‌هایی با تخصص‌های آنالیز ریسک و حقوقی را نیز فعال کنند که جنبه‌های توسعه و کاربری هوش مصنوعی از هر حیث را برایشان آشکار نماید. این تیم‌ها باید از ابتدای فرایندهای مرتبط باهوش مصنوعی شامل جمع‌آوری اطلاعات و تحلیل و ارایه بازخورد را موردبررسی قرار دهند و مخاطرات فنی، استراتژیک و حقوقی آن را به‌صورت جامع و شفاف تحلیل نمایند. گونه‌هایی از ریسک‌های مرتبط با این فناوری به شرح زیر تحلیل گردیده است و البته باید توجه داشت که به فراخور نوع و کاربری این سیستم‌ها، ریسک‌های دیگری نیز ‌می‌تواند گریبان گیر شرکت‌ها شود

حریم خصوصی داده‌ها

داده‌ها سرچشمه حیات سیستم‌های هوش مصنوعی هستند زیرا تمامی تحلیل‌های این سیستم‌ها بر پایه داده‌ها استوار است. بااین‌همه در کشورهای مختلف قوانینی درباره مالکیت و نحوه استفاده از داده‌ها وجود دارد که اگر ریسک مغایرت با آن‌ها دیده نشود، حجم انبوه استفاده از داده‌ها، تبعات قانونی مهمی را به همراه خواهد داشت. حتی اگر از حیث مالکیت، استفاده از اطلاعات منعی نداشته باشد، تجاوز به حریم خصوصی مشتریان و جامعه، اعتماد آن‌ها را مخدوش خواهد کرد و به نشان تجاری و اعتبار سازمان لطمه‌های شدید وارد می‌کند.

ازآنجاکه مکانیسم بسیاری از مدل‌های هوش مصنوعی بر پایه داده‌های ورودی است. اغلب آن‌ها نسبت به کیفیت و دقت این داده‌ها بسیار آسیب‌پذیر عمل ‌می‌کنند. ازآنجاکه هوش مصنوعی شیوه‌ای خود تکاملی دارد، در ابتدای به‌کارگیری آن وقتی‌که میزان داده‌ها اندک است ممکن است نتایج حاصل از کیفیت و روایی کافی برخوردار نباشند و وقتی‌که اطلاعات حاصل از آن‌ها قرار است منجر به تصمیم‌گیری‌های بسیار مهم و جهت ساز استراتژیک گردد، ریسک خطا به وجود خواهد آمد. باید توجه داشت در تغذیه داده‌های ورودی و گزارش‌های خروجی ممکن است الزامات انصاف و بی‌طرفی رعایت نشود و افراد متناسب با منافع خود یا نگرش مشتریانشان، این موارد را دست‌کاری کنند که این نیز ‌می‌تواند به مخاطرات قانونی و حیثیتی برای بنگاه‌ها منجر گردد.

شفافیت و قابلیت توضیح

در بسیاری از مواقع اطلاعات حاصل از سیستم‌های هوش مصنوعی با دیدگاه‌های قبلی کاربران آن در تناقض است و آن‌ها در معرض تصمیم‌گیری بر مبنای اطلاعاتی قرار ‌می‌گیرند که با اطمینان نمی‌توانند نسبت به آن باورمند باشند. ازاین‌رو سیستم‌های باکیفیت هوش مصنوعی باید بتواند با شفافیت مکانیسم تبدیل داده‌ها به اطلاعات خروجی را برای کاربران آن توضیح دهد تا آن‌ها نسبت به صحت و دقت این اطلاعات اطمینان بیابند. در برخی از کشورهای جهان الزاماتی نیز درباره شفافیت مدل تحلیلی در سیستم‌های هوش مصنوعی وضع گردیده است.

ریسک‌های شخص سوم

اغلب سیستم‌های هوش مصنوعی بر پایه مقایسه میان داده‌ها است. مقداری از این داده‌ها بر اساس تراکنش‌های مشتری و کاربر ایجاد ‌می‌شود و  ممکن است که میزانی از داده‌ها که معیار مقایسه قرار ‌می‌گیرند از شرکت‌ها افراد دیگر جمع‌آوری‌شده باشد. این موارد ‌می‌تواند ریسک‌های مختلف مرتبط با شخص سوم را برای مالک و کاربران سیستم هوش مصنوعی ایجاد نماید؛ بنابراین در طرح‌ریزی این‌گونه از سیستم‌ها باید تحلیل موثری از الزامات و حقوق ذی‌نفعان مختلف سیستم در لایه‌های متفاوت انجام گردد و متناسب آن راهکارهای فنی و حقوقی محافظت از مالکیت داده‌ها اندیشیده شود.

ریسک عملکرد سیستم

خروجی بسیاری از سیستم‌های هوش مصنوعی در تصمیم‌گیری‌های بلادرنگ سازمانی به کار ‌می‌رود؛ بنابراین قابلیت اطمینان و پایایی این سیستم‌ها ‌می‌تواند منشا ریسک‌هایی برای ارایه دهنده خدمات و کاربران آن ایجاد کنند هرگونه اختلال یا کندی ‌می‌تواند موجب مختل شدن تصمیم‌گیری‌های بلادرنگ شود و تبعات اقتصادی و حقوقی را به همراه داشته باشد. پس لازم است سطوح توافق شده خدمات به‌دقت میان ارایه دهنده و کاربران با توجه به قابلیت‌های واقعی سیستم معین و مدون گردد.

*مشاور مدیریت استراتژیک