اعتراف وکیل آمریکایی به استفاده از هوش مصنوعی در تحقیقات حقوقی

وکیلی که از این ابزار استفاده کرده، در دادگاه اعلام کرد که از نادرست بودن محتوای ارائه شده از سوی این ابزار، بی‌اطلاع بوده است. این ادعا در حالی مطرح شد که ChatGPT اگرچه در هر حوزه‌ای و بنا به درخواست کاربر، متن و محتوا تولید می‌کند، اما پیش از آن، هشدار می‌دهد که این اطلاعات ممکن است نادرست باشد. در این پرونده، فردی از یک شرکت هواپیمایی شکایت کرده بود که تیم حقوقی وی اعلام کردند در این پرونده، به چند مورد برای پیشبرد آن استناد شده بود که هرگز وجود نداشتند یا نتوانستند آن موارد را پیدا کنند. قاضی دادگاه نیز عنوان کرد: به نظر می‌رسد شش پرونده از پرونده‌های ذکر شده، جعلی بوده یا از نقل‌قول‌های نادرست استفاده شده است. در بررسی‌ها مشخص شد که این موارد از سوی یکی از همکاران پیتر لودوکا به نام استیون شوارتز که از وی شکایت شده بود، گردآوری و اضافه شده بود. شوارتز نیز در بیانیه کتبی خود عنوان کرد که لودوکا در این تحقیقات نقشی نداشته و از نحوه انجام این تحقیقات بی‌اطلاع بوده است.

وی افزود که از اعتماد به چت‌بات ChatGPT «بسیار متاسف» است. وی همچنین این اطمینان را داد که در آینده هرگز از هوش مصنوعی برای «تکمیل» تحقیقات حقوقی خود بدون تایید صحت آن استفاده نخواهد کرد. اسکرین‌شات‌های پیوست شده به این پرونده، مکالمه میان شوارتز و هوش مصنوعی ChatGPT را نشان می‌دهد. در یکی از این پیام‌ها، شوارتز می‌پرسد که آیا پرونده‌ای که ارائه شده، واقعی است؟ که ChatGPT پاسخ می‌دهد «بله». سپس از این ابزار خواسته می‌شود تا منبع خود را اعلام کند که پس از دوبار پرسیدن، این چت‌بات می‌گوید که پرونده مذکور واقعی است و می‌توان آن را در دیتابیس‌هایی چون LexisNexis و Westlaw یافت. همچنین ChtGPT در ادامه می‌گوید تمام پرونده‌های معرفی‌شده واقعی هستند.