قضاوت برعهده کیست؟

واقعیت این است که آن اقدام، نقض آزادی بیان نیست. همان‌طور که ترامپ طبق متمم نخست قانون اساسی حق داشت ادعاهای بی‌معنا را به شکل گسترده مطرح کند، شرکت‌های فناوری نیز طبق همان متمم حق دارند، محتوای یاد شده ترامپ را حذف کنند. اگر چه برخی معتقدند این اقدام شبکه‌های اجتماعی بی‌سابقه بوده یا آن را نقطه عطف برای مبارزه بر سر کنترل بیان دیجیتال توصیف کرده‌اند، ولی به هیچ وجه چنین، نیست. نه تنها فیس‌بوک و توییتر مرتبا انواع محتوای محافظت شده را حذف می‌کنند بلکه در مورد ترامپ، این نخستین بار نیست که پلت‌فرم‌های اجتماعی حساب کاربری یک شخصیت سیاسی مشهور را مسدود می‌کنند. پس از انتشار گزارش‌هایی درباره نسل‌کشی در میانمار، فیس‌بوک حساب کاربری ژنرال ارشد این کشور و دیگر فرماندهان ارتش را که از این شبکه اجتماعی برای انتشار و ترویج نفرت استفاده می‌کردند، مسدود کرد. این شبکه همچنین صفحه حزب‌الله را حذف کرده زیرا دولت آمریکا این سازمان را یک سازمان تروریستی اعلام کرده و این درحالی است که حزب‌الله در پارلمان لبنان کرسی دارد.

از سوی دیگر، فیس‌بوک صفحات رهبران کشورهایی که مورد تحریم آمریکا هستند را بسته است. نکته مهم دیگر این است که هر دو شبکه اجتماعی فیس‌بوک و توییتر معتقدند محتوایی که از سوی مقامات منتخب پست می‌شود بسیار بیشتر از محتوای ارسال شده از سوی افراد عادی باید محافظت شود. به این ترتیب سیاست یاد شده به سخنان سیاستمداران بسیار بیشتر از مردم عادی قدرت داده است. موضع فیس‌بوک و توییتر با شواهد متعدد که نشان می‌دهد دیدگاه‌های مبتنی بر نفرت شخصیت‌های مشهور در مقایسه با همین دیدگاه‌ها که از سوی مردم عادی منتشر می‌شود، قدرت و تاثیر بسیار بالاتری دارد، در تضاد قرار دارد.

تردیدی وجود ندارد که این سیاست‌ها همه جای دنیا به شکل یکسان و مشابه به اجرا در نمی‌آید. مسلما ترامپ تنها رهبر در جهان نیست که از پلت‌فرم‌های شبکه‌های اجتماعی برای تحریک طرفداران خود به ناآرامی استفاده می‌کند. برای دستیابی به نمونه‌های بیشتر کافی است به اظهارنظرهای حزب حاکم بر هند نگاه کنید. با آنکه محدود شدن حساب کاربری ترامپ بدون شک فواید کوتاه مدت و رضایتمندی‌هایی در بر دارد، تصمیم دو شبکه اجتماعی یاد شده و تصمیم‌های مشابه که قبلا از سوی این شبکه‌ها اتخاذ شده، پرسش‌های بنیادی‌تر درباره آزادی بیان را مطرح می‌کنند. برای مثال این پرسش مطرح است که چه کسی حق دارد درباره آنچه ما می‌توانیم و نمی‌توانیم بیان کنیم تصمیم بگیرد؟ یا این به چه معناست که یک سازمان می‌تواند سخنان و دیدگاه‌های یک مقام دولتی را سانسور کند؟ زاکربرگ و گروه سیاست‌گذاری در شبکه فیس‌بوک طی سال‌های متمادی ثابت کرده‌اند که برای تعیین آنچه مناسب است یا مناسب نیست، قضاوت‌کننده‌های خوبی نیستند. فیس‌بوک در حذف محتواهای ترویج‌کننده خشونت در میانمار، هند و دیگر کشورها به‌طور کامل ناکام بوده است. همچنین این شبکه به تعلیق حساب کاربری افرادی که علیه سخنان نفرت‌زا پست منتشر می‌کنند تمایل دارد.

هیچ دلیلی وجود ندارد که به مارک زاکربرگ و دیگر مدیران ارشد شرکت‌های فناوری برای درست بودن قضاوت‌شان در تصمیم‌گیری‌های بزرگ اعتماد کنیم. برخی کارشناسان برای رفع این گونه نگرانی‌ها خواستار تدوین مقررات بیشتر شده‌اند. در ماه‌های اخیر تقاضاهای متعددی از سوی دو حزب دموکرات و جمهوری‌خواه برای اصلاح یا لغو مصوبه ۲۳۰ مطرح شده است. این قانونی است که طبق آن شبکه‌های اجتماعی مسوولیتی در برابر آنچه در آنها منتشر می‌شود، ندارند. در واقع این قانون که سال ۱۹۹۶ تصویب شد از شرکت‌های یاد شده در برابر تصمیم‌هایی که آنها درباره محتوای منتشر شده اتخاذ می‌کنند محافظت می‌کند. نکته مهم این است که لغو آن قانون، شرکت‌های فناوری را از حذف محتوایی که نامناسب می‌دانند، باز نمی‌دارد چه آن محتوا، محتوای خلاف اخلاق باشد و چه سخنان ترامپ.

شرکت‌های یاد شده بر مبنای حقوقی که در متمم نخست در نظر گرفته شده قادر هستند، پلت‌فرم خود را آن‌طور که مناسب می‌دانند مدیریت کنند. در عوض، حذف مصوبه ۲۳۰ موانعی در برابر رقبای فیس‌بوک و دیگر غول‌های فناوری به‌وجود می‌آورد و برای پلت‌فرم‌ها در زمینه آنچه آنها تصمیم می‌گیرند میزبانی کنند ریسک بالاتری از لحاظ مسوولیت ایجاد می‌کند. برای مثال اگر قانون ۲۳۰ وجود نداشت، وکلای فیس‌بوک ممکن بود به این نتیجه برسند که میزبانی محتوای ضدفاشیستی به دلیل موضع دولت ترامپ در قبال antifa ریسک بیش از حد بزرگی برای این شبکه اجتماعی محسوب می‌شود. این یک سناریوی بعید نیست: پلت فرم‌ها پیش از این اکثر محتواهایی را که حتی ارتباط‌های بسیار اندک با سازمان‌های تروریستی خارجی داشتند، محدود کرده‌اند، زیرا نگران آن بودند که این محتواها مسوولیت‌هایی برای آنها در بر داشته باشد. به این ترتیب شواهد جنگ در سوریه و محتواهای مخالف سازمان‌های تروریستی در خارج حذف شده‌اند.

به طور مشابه، از پلت‌فرم‌های شبکه اجتماعی به دلیل مسدود کردن هر محتوای به ظاهر مرتبط با کشورهای مورد تحریم آمریکا انتقاد شده است. به راحتی می‌توان دید که چطور بالا بردن مسوولیت پلت‌فرم‌های شبکه اجتماعی سبب می‌شود میزان بالاتر از محتواهای حیاتی از سوی این شبکه‌ها حذف شود. علاقه‌مندی شرکت‌های فناوری صرفا مرتبط کردن مردم جهان نیست، بلکه کسب سود از این ارتباط است. پلت‌فرم‌ها نباید بی‌تفاوت باشند، اما باید با انصاف رفتار کنند. به‌رغم آنچه سناتور تدکروز دائما تکرار می‌کند، هیچ عاملی وجود ندارد که از پلت‌فرم‌ها بخواهد بی تفاوت یا خنثی باشند‌ و نباید هم چنین عاملی وجود داشته باشد.

اگر فیس‌بوک می‌خواهد حساب کاربری ترامپ را مسدود یا عکس شیر دادن مادر به کودکش را حذف کند، این حق انحصاری فیس‌بوک است. مشکل این نیست که فیس‌بوک چنین حقی دارد، بلکه مشکل این است که به‌دلیل موقعیت فیس‌بوک و رشد بدون مانع آن، کاربران شبکه اجتماعی تقریبا هیچ جای دیگری برای رفتن ندارند و باید مقررات مشکل‌ساز و تعدیل خودکار محتواها را قبول کنند. راه‌حل، لغو مصوبه ۲۳۰ نیست، زیرا این کار از رقابت جلوگیری می‌کند، بلکه این است که شرایط و زمینه‌ها را برای رقابت بیشتر فراهم کنیم. این همان موضوعی است که دولت بایدن باید در چند ماه آینده بر آن تمرکز کند و تلاش‌ها باید شامل نظرخواهی از متخصصان تعدیل محتوا برای درک طیف مشکلاتی باشد که کاربران در سراسر جهان با آنها مواجه هستند. نباید صرفا بر آنچه در داخل آمریکا درحال وقوع است تمرکز کرد.

پلت‌فرم‌ها می‌دانند که باید چه اقداماتی انجام دهند، زیرا جامعه مدنی سال‌هاست به آنها گفته است چه باید بکنند. آنها باید شفاف‌تر عمل و تضمین کنند که کاربران حق دارند وقتی تصمیم‌های اشتباه اتخاذ می‌شود، واکنش نشان دهند. اصول شفافیت و پاسخگویی سانتا کلارا در حوزه تعدیل محتوا در سال ۲۰۱۹ از سوی اکثر پلت‌فرم‌های بزرگ پذیرفته شد، اما تنها یکی از آنها به آن پایبند بوده، حداقل استاندارد را برای شرکت‌های فناوری معرفی می‌کند. پلت‌فرم‌های یاد شده همچنین باید به تعهدات کنونی در حوزه تصمیم‌گیری همراه با مسوولیت‌پذیری پایبند باشند. مهم‌ترین موضوع این است که آنها باید تضمین کنند تصمیم‌های‌شان در زمینه بیان، با استانداردهای جهانی حقوق‌بشر سازگار است. برخی ممکن است اقدام پلت‌فرم‌ها در مسدود کردن حساب کاربری ترامپ را درست ندانند، اما اگر ما مایلیم تضمین کنیم که پلت‌فرم‌ها در آینده تصمیم‌های بهتری می‌گیرند، نباید به‌دنبال راه‌های فوری باشیم.