هوش مصنوعی در خدمت دموکراسی

  یادگیری ماشینی برای آگاهی بیشتر و بهتر

آگاهی از منابع گسترده یا OSINT، گردآوری و تحلیل آزادانه منابع عمومی در دسترس است که به راهکارهای رمزنگاری و امنیتی قدرت می‌بخشد و همچنین باعث می‌شود که دولت‌ها پاسخگو باشند. گروه‌هایی مانند کنسرسیوم بین‌المللی روزنامه‌نگاران تحقیقی (ICIJ) از یادگیری ماشینی برای جمع‌آوری اطلاعات مورد نیازشان استفاده می‌کنند. در سال گذشته میلادی این کنسرسیوم با استفاده از راهکارهای هوش مصنوعی برای جمع‌آوری اطلاعات تحقیقاتی خود با لابراتوار هوش مصنوعی دانشگاه استنفورد همکاری کرد. در ماه مه گذشته هم محققان دانشگاه Universidade Nove de Julho در شهر سائوپائولو در برزیل هم نتایج بررسی‌های سیستماتیک خود بر مبنای استفاده از هوش مصنوعی برای گردآوری اطلاعات را منتشر کردند. براساس این بررسی‌ها، نزدیک به ۲۵۰ نمونه گردآوری اطلاعات با استفاده از هوش مصنوعی در فاصله سال‌های ۱۹۹۰ تا ۲۰۱۹ انجام شده است. در همین راستا محققان دانشگاه Swansea هم از یادگیری ماشینی برای جمع‌آوری اطلاعات در زمینه جنایات جنگی که در یمن رخ می‌دهند، استفاده می‌کنند.

  شناسایی تبعیض جنسیتی از سوی پلیس

محققان دانشگاه استنفورد با بهره‌گیری از مزایای زبان‌شناسی محاسباتی یا NLP برای پردازش اطلاعات، به ثبت مکالماتی پرداختند که میان افسران پلیس و مردمی که برای تخلفات ترافیکی متوقف شده بودند، برقرار شده است. این محققان به کمک زبان‌های کامپیوتری توانستند نشان بدهند که افسران پلیس در زمان چنین اتفاقاتی، احترام کمتری برای شهروندان سیاه‌پوست قائل هستند. نتایج این بررسی‌ها که در بولتن آکادمی ملی علوم در سال ۲۰۱۷ منتشر شد، نشان داد که استفاده پلیس از دوربین‌های قابل نصب روی بدن‌شان می‌تواند به ایجاد اعتماد میان مردم جامعه و نهادهای قانون‌گذار کمک کند. این بررسی‌های تحلیلی بر اساس ثبت مکالمات میان افسران پلیس و مردم در طول سال‌ها انجام شد و در آن از گردآوری اطلاعات به جای تحقیقات میدانی فردبه‌فرد، استفاده شد.

  اطلاع مردم از بررسی‌های الگوریتمی

ایده این موضوع از جلسات تحلیلی میان متخصصان علم روباتیک برای ایجاد راهکارهای هوش مصنوعی بهتر، بیرون آمد. این مفهوم که اولین بار در سال ۲۰۱۹ در کتابی به نام «راهنمای انسانی هوش ماشینی» به کار برده شد، در واقع به ایده شفافیت در روابط اجتماعی برمی‌گردد و به این معناست که هر فرد حق این را داشته باشد که بداند چه وقت یک الگوریتم در حال گرفتن تصمیمی است که زندگی او را تحت تاثیر قرار می‌دهد و همچنین در این الگوریتم تصمیم‌گیری چه عواملی در نظر گرفته می‌شوند. سند حقوق الگوریتمی شامل دسترسی هر فرد به اطلاعات شخصی در دسترس نهادها و سازمان‌ها و امکان رد یا پذیرش اجازه آنها برای استفاده از این اطلاعات می‌شود. بررسی‌ها نشان می‌دهند که بعضی از این مفاهیم در لوایح قانونی ارائه شده در کنگره آمریکا هم وجود دارند؛ مانند قانون شفافیت الگوریتمی سال ۲۰۱۹.

  کنترل درستی اطلاعات و مبارزه با تقلب

صرف‌نظر از بات‌هایی که خدمات شهری ارائه می‌دهند یا شفافیت و آگاهی عمومی را بالا می‌برند، هوش مصنوعی می‌تواند با انتشار اطلاعات غلط و تقلب مبارزه کند. به‌عنوان مثال، انتشار اطلاعات غلط یکی از مهم‌ترین نگرانی‌های پیش ‌روی دولت آمریکا در انتخابات پیش‌رو در ماه نوامبر امسال است. در گزارشی که در پاییز سال ۲۰۱۹ و درباره انتخابات آینده منتشر شد، مرکز حقوق انسانی و تجاری دانشگاه نیویورک نسبت به اشکال بومی و داخلی انتشار اطلاعات نادرست و همچنین پتانسیل دخالت‌های خارجی از سوی دولت‌های چین یا روسیه هشدار داد. در همین راستا چالش شناسایی اطلاعات نادرست با هدف کمک به شمارش ویدئوهای گول‌زننده شکل گرفته و همچنین فیس‌بوک هم ویدئوهایی را برای آموزش سیستم‌های شناسایی اطلاعات نادرست و غلط ارائه کرده است.

  جلوگیری از تبعیض و اسکان بی‌خانمان‌ها

در لس‌آنجلس افراد بی‌خانمان و سفیدپوست تا ۴/ ۱ برابر سریع‌تر از افراد بی‌خانمان رنگین‌پوست، اسکان داده می‌شوند و این به ضعف سیاست‌های مربوط به اسکان افراد بی‌خانمان یا تبعیض میان آنها برمی‌گردد. نتایج بررسی‌های مربوط به نژادپرستی ساختاری در اسکان افراد بی‌خانمان لس‌آنجلس در ماه گذشته منتشر شد و نشان داد که تنها ۸ درصد از شهروندان این شهر سیاه‌پوست هستند؛ اما حدود ۳۴ درصد از این جمعیت بی‌خانمان‌ هستند. برای جلوگیری از این جریان، مرکز تحقیقات کاربردی هوش مصنوعی در اجتماع دانشگاه کالیفرنیای جنوبی به تحقیق درباره راهکارهای هوش مصنوعی پرداخته است که با استفاده از آنها می‌توان این تضمین را ایجاد کرد که اسکان افراد بی‌خانمان به‌صورت عادلانه انجام خواهد شد. در همین راستا، این مرکز در ماه گذشته از کمک ۵/ ۱ میلیون دلاری به اداره خدمات ویژه بی‌خانمان‌های لس‌آنجلس خبر داد. موضوع اسکان بی‌خانمان‌ها در کالیفرنیا معضلی جدی است و به همین خاطر مرکز تحقیقات کاربردی هوش مصنوعی در اجتماع دانشگاه کالیفرنیای جنوبی از سال ۲۰۱۷ به کمک نهادهای خیریه و ذی‌ربط در این حوزه به تحقیقات گسترده‌ای پرداخته است تا با کمک ابزارهای هوش مصنوعی تا حد امکان از افزایش بی‌خانمانی در این ایالت جلوگیری کند.

  محافظت در برابر حملات باج‌افزاری

از پیش از شیوع ویروس کرونا و تظاهرات گسترده در اعتراض به نژادپرستی، موضوع حمله باج‌افزارها و تهدید آنها برای بخش‌های مختلف اداری و مالی، همیشه به شکلی پررنگ و مهم وجود داشته است. در سال ۲۰۱۹ حملات باج‌افزاری به سازمان‌ها و موسسات عمومی مانند بیمارستان‌ها، مدارس و نهادهای دولتی با نرخی بی‌سابقه افزایش یافتند و هزینه‌های هنگفتی را برای بازیابی اطلاعات و فایل‌ها به آنها تحمیل کردند. حالا اما شرکت‌های امنیتی بزرگ دنیا درحال بررسی راهکارهای یادگیری ماشینی برای مبارزه و جلوگیری از تکرار چنین حملاتی هستند.