پیشنهاد برای مقررات هوش مصنوعی: پیشنهاد کمیسیون اروپا برای تنظیم استفاده از هوش مصنوعی شامل جریمه بزرگ معادل ۶درصد از گردش مالی جهانی یک شرکت در صورت عدم کشف ناسازگاری جدی است. این پیشنهاد بسیاری از قوانین و ممنوعیت‌ها را درباره نرم‌افزار «هوش مصنوعی با ریسک بالا»  یا نرم‌افزاری که هنگام پردازش داده‌های شخصی از هوش مصنوعی استفاده می‌کند، شرح می‌دهد. این مقررات مسوولیت را بر دوش کاربران و ارائه‌دهندگان نرم‌افزار مبتنی بر هوش مصنوعی قرار می‌دهد. به این معنی که هردو در صورت نقض داده‌ها یا تلاش برای هک آن مسوول هستند. این یک موضوع حساس به ویژه از سال۲۰۲۱ است، سالی که شاهد افزایش چشمگیر دیجیتالی شدن محل کار بوده است. با همه‌‌گیری و مجبور شدن بیشتر شرکت‌ها به انتخاب گزینه کار از راه دور، بسیاری از واحدهای منابع انسانی شروع به تکیه بر نرم‌افزار مشارکتی مبتنی بر رایانش ابری با کیفیت بالا کرده‌اند که ویژگی‌‌های مهمی مانند به روزرسانی وضعیت پروژه در زمان واقعی و کنترل دسترسی را فراهم می‌کند. فرآیندهای کارمندیابی و استخدام کاملا دیجیتالیزه شدند تا تمرکز روی مصاحبه‌های شغلی، رزومه دیجیتالی و فرآیندهای پردازش مجازی امکان‌پذیر شود. اگرچه نرم‌افزارها می‌توانند ارتباط، همکاری و سازماندهی را بسیار آسان کنند، اما امکان به وجود آمدن تعصب بیشتر در استخدام و نیز خطر از دست دادن کنترل اطلاعات حساس، می‌تواند سازمان‌ها را در یک نقطه دشوار قرار دهد. در همین راستا شرکت‌ها نیاز خواهند داشت تا مقررات جامع و کنترل‌‌ مدیریت ریسک داشته باشند تا بر اساس آن شناخت کافی از مجموعه این قوانین جدید داشته باشند.

مسائل مربوط به انطباق: از ارائه‌دهندگان نرم‌‌افزار انتظار می‌رود نرم‌افزاری بسازند که از نظر سایبری ایمن باشد و تمام اقدامات احتیاطی لازم را برای محافظت از داده‌های کاربر انجام دهد. با وجود این‌، مسوولیت به اینجا ختم نمی‌شود. شرکت‌هایی که از این نرم‌افزار استفاده می‌کنند، در صورت عدم نظارت و پایبندی به دستورالعمل‌های عملیاتی که برای حفظ امنیت داده‌ها از طریق ارائه‌کنندگان نرم‌افزار به آنها ارائه می‌شود، از نظر قانونی نیز مسوولیت دارند. و چالش‌های زیادی وجود دارد که شرکت‌ها در انطباق با این مقررات با آن روبه‌رو هستند.

افزایش استخدام از راه دور: با در دسترس بودن بسیاری از نرم‌افزارهای منحصر به فرد منابع انسانی مبتنی بر هوش مصنوعی و تکنولوژی جدید که هر روز توسعه پیدا می‌کنند، برای سازمان‌ها چالش بزرگی خواهد بود تا به‌طور کامل درک کنند چه کاری باید برای سازگاری با آنها انجام دهند. مراحل مورد نیاز برای اثبات انطباق برای آنهایی که نرم‌افزارهای مبتنی بر هوش مصنوعی را طراحی و استفاده می‌کنند مورد به مورد تعیین می‌شود و این امر درک این نکته را که دقیقا برای پیروی از دستورالعمل‌های جدید چه کاری باید انجام شود دشوار می‌کند. علاوه بر این، با توسعه فناوری سریعا شکننده‌‌ درک این مساله دشوار است که چگونه نهادهای قانونی سنتی در زمان تغییر موضع خود را حفظ خواهند کرد.

ریسک بالا در مقابل ریسک پایین هوش مصنوعی: کمیسیون اروپا در تلاش برای تنظیم حوزه وسیعی از تکنولوژی مانند هوش مصنوعی، در مقررات پیشنهادی خود تفاوت بین هوش مصنوعی با «ریسک بالا»  و «ریسک پایین» را شناسایی می‌کند که در این مورد آخری هوش مصنوعی به‌طور مستقیم داده‌های حساس را کنترل نمی‌کند. برای نرم‌‌افزار هوش مصنوعی «کم‌خطر»، استانداردهای نظارتی خیلی سختگیرانه نیستند. به عنوان مثال، شرکت‌ها موظف هستند به کاربران اطلاع دهند که آیا با یک نرم‌افزار مبتنی بر هوش مصنوعی مانند چت‌بات تعامل دارند اما نیازی به ارائه شفافیت کامل درباره استفاده از الگوریتم‌ها ندارند. با این حال، مقرراتی که برای هوش مصنوعی با خطر بالا در نظر گرفته می‌شوند سختگیرانه‌تر هستند و به احتمال زیاد سازمان‌های سراسر جهان را تحت تاثیر قرار خواهند داد. این قانون جدید هر نرم‌افزاری مبتنی بر هوش مصنوعی را که در اروپا استفاده می‌شود، شامل می‌شود، حتی اگر شرکت طراحی و فروش نرم‌افزار در خارج از کشور قرار داشته باشد.

تاثیرات فراتر از اتحادیه اروپا: ما پیامدهای گسترش‌دهنده قوانینی از این دست را می‌‌دانیم زیرا مشاهده کردیم که مقررات حفاظت از داده‌های عمومی (GDPR) چگونه بر دیدگاه‌های شرکت‌ها درباره حریم خصوصی داده‌ها در سراسر جهان تاثیر گذاشته است. غالبا شرکت‌های آمریکایی مقررات جدیدی را که در اروپا وضع می‌شود مورد توجه قرار می‌دهند زیرا می‌دانند که این قوانین ممکن است به چارچوبی برای مقررات آینده در ایالات متحده تبدیل شود. یکی از بزرگ‌ترین الزامات GDPR که باعث تشویق قوانین مشابه در سراسر جهان شده است شرایطی است که سازمان‌هایی که نقض داده را تجربه می‌کنند حداقل در عرض ۷۲ ساعت از زمان نقض، مشتریان خود را از این امر آگاه کنند. این بخشی از تعهدات اتحادیه اروپا برای توانمندسازی افراد برای کنترل اطلاعات خود است. اتحادیه اروپا تنها نهادی نیست که مقررات مربوط به پیامدهای فناوری پیشرفته را در نظر می‌گیرد.

حرکت رو به جلو با حریم خصوصی: .بر خلاف مقررات حفاظت از داده‌های عمومی (GDPR) کشورها به تنهایی مسوول اجرای قانون جدید در مرزهای خود خواهند بود که سبب سردرگمی در مقررات مبهم پیشنهادی می‌شود. این نکته بسیار حیاتی خواهد بود که اتحادیه اروپا دقیقا توضیح دهد که کدام سازوکار برای اثبات انطباق با مقررات جدید هوش مصنوعی مورد نیاز است که به مقامات بین‌المللی این امکان را می‌دهد که قوانین جدید دولت را بشناسند و به‌طور کامل با آنها همکاری کنند. به هر حال هوش مصنوعی پیش از این هم از سوء تفاهمات و شایعات مربوط به پذیرش و پتانسیل آن رنج برده است و هر مجموعه قانونی درباره این موضوع باید تلاش کند تا آنچه هوش مصنوعی است را روشن کند. این پیشنهاد جدید توسط شورا و پارلمان اروپا مورد بحث و بررسی قرار خواهد گرفت، که امیدوارم جنبه‌های مبهم قانون جدید و اینکه چگونه سازمان‌ها می‌توانند تمام تلاش خود را برای پیروی از قانون انجام دهند، روشن شود. در ضمن برخی شرکت‌ها برای سازگار شدن با مقررات و آنچه می‌تواند برای شرکت آنها حرکت روبه جلو باشد مبارزه می‌کنند

 البته مقررات جدید هنوز در قانون گنجانده نشده‌اند و روشن است که بسیاری از تردیدها باید قبل از تصویب، برطرف شوند. این موارد زمان‌بر است. مقررات حفاظت از داده‌های عمومی هم در سال ۲۰۱۶ تصویب شد اما در واقع تا سال ۲۰۱۸ اجرایی نشد.

 اتحادیه اروپا پیشرو در تنظیم قوانین فناوری و حفظ حریم خصوصی داده‌ها بوده است و این احتمال وجود دارد که در سال‌های آینده آنها به الهام بخشیدن به سایر کشورها با استفاده از قوانین خود ادامه دهند. با این حال، برای سازمان‌ها و دپارتمان‌های منابع انسانی آنها مهم است تا از آگاهی کافی برخوردار باشند و همچنین بتوانند الزامات را افزایش داده و حفظ کنند و در کنار تحول سریع دیجیتال که با تصویب هوش مصنوعی همراه خواهد بود، از انطباق صحیح با حریم خصوصی داده‌ها برخوردار باشند.