کتاب «کاربرد هوش مصنوعی در ازدیاد برداشت نفت» به قلم مهندس محمد بلقدر است که مقالات دیگری نیز در این حوزه نوشته است. این کتاب ۸۰ صفحه‌ای، بخش‌های مختلفی دارد که با تیترهایی از جمله «تولید اولیه (طبیعی) نفت»، «ازدیاد برداشت نفت»، «مراحل برداشت»، «هوش مصنوعی»، «کاهش ضریب بهره»، «پارامترهای الگوریتم جستجوی هوش مصنوعی» مطالب خود را عرضه است.

در مقدمه کتاب آمده است: «استفاده صحیح از منابع نفتی کشور به منظور افزایش طول عمر آن‌ها و برخورداری نسل‌های آینده از این ذخایر خدادادی، ایجاب می‌کند تا با مدیریت صحیح این منابع آشنا شویم. از نکات قابل توجه در مدیریت مخازن، اتخاذ روش‌هایی برای حفظ و صیانت مخزن، بالابردن راندمان تولید و سعی بر نگه‌داشتن آن در حد مطلوب در طول زمان می‌باشد. بدین منظور می‌توان از هوش مصنوعی با کمترین میزان خطا در محاسبات در این زمینه بهره برد.»

معرفی کتاب بالا copy

مشکل همسویی

کتاب «مشکل همسویی یادگیری ماشینی و ارزش‌های انسانی» یک کتاب غیرداستانی است که توسط نویسنده آمریکایی برایان کریستین در سال ۲۰۲۰ منتشر شد. این بر اساس مصاحبه‌های متعدد با کارشناسانی است که در تلاش برای ساخت سیستم‌های هوش مصنوعی، به‌ویژه سیستم‌های یادگیری ماشینی هستند که با ارزش‌های انسانی همسو هستند.

این کتاب به سه بخش تقسیم شده است: پیشگویی، عاملیت و هنجارگرایی. هر بخش شامل محققان و مهندسانی است که بر روی چالش‌های مختلف در راستای همسویی هوش مصنوعی با ارزش‌های انسانی کار می‌کنند.

در بخش اول، کریستین بحث‌های مربوط به تاریخچه تحقیقات هوش مصنوعی، به ویژه رویکرد یادگیری ماشین شبکه‌های عصبی مصنوعی مانند Perceptron و AlexNet را با مثال‌هایی از اینکه چگونه سیستم‌های هوش مصنوعی می‌توانند رفتار ناخواسته داشته باشند، در هم آمیخته است.

او داستان جولیا آنگوین، روزنامه‌نگاری را روایت می‌کند که تحقیقات ProPublica از الگوریتم COMPAS، ابزاری برای پیش‌بینی تکرار جرم در میان متهمان جنایی، به انتقادات گسترده‌ای از دقت و سوگیری آن نسبت به برخی اطلاعات

جمعیتی منجر شد. یکی از چالش‌های اصلی هم‌ترازی هوش مصنوعی ماهیت جعبه سیاه آن است (ورودی‌ها و خروجی‌ها قابل شناسایی هستند، اما فرآیند تبدیل در این بین مشخص نیست). فقدان شفافیت، تشخیص اینکه سیستم در کجا درست پیش می‌رود و کجا اشتباه می‌کند، دشوار می‌کند.

در بخش دوم، کریستین به طور مشابه تاریخ مطالعه روان‌شناختی پاداش، مانند رفتارگرایی و دوپامین را با علم کامپیوتر یادگیری تقویتی در هم می‌آمیزد، که در آن سیستم‌های هوش مصنوعی باید سیاست ("چه باید کرد") را در مواجهه با یک تابع ارزش ("چه پاداش یا مجازاتی باید انتظار داشت"). او سیستم‌های DeepMind AlphaGo و AlphaZero را «شاید چشمگیرترین دستاورد در طراحی برنامه درسی خودکار» می‌نامد. او همچنین بر اهمیت کنجکاوی تاکید می‌کند، که در آن یادگیرندگان تقویتی به جای جستجوی انحصاری پاداش بیرونی، انگیزه ذاتی برای کشف محیط خود را دارند.

این کتاب نقدهای مثبتی از سوی منتقدان دریافت کرد. دیوید ای. شایویتز از وال استریت ژورنال بر مشکلات مکرر هنگام به کارگیری الگوریتم‌ها برای مسائل دنیای واقعی تاکید کرد و کتاب را به عنوان "کاوشی ظریف و جذاب در مورد این موضوع داغ سفید" توصیف کرد. Kirkus Reviews به این کتاب نقد مثبت داد و آن را «از لحاظ فنی غنی اما در دسترس» و «کاوشی جالب در مورد هوش مصنوعی» نامید.

بخش سوم آموزش هوش مصنوعی را از طریق تقلید از رفتار انسان یا ماشین و همچنین بحث‌های فلسفی مانند امکان‌گرایی و واقعیت‌گرایی که بر رفتار ایده‌آل متفاوت برای سیستم‌های هوش مصنوعی دلالت دارد، پوشش می‌دهد. یادگیری تقویت معکوس از اهمیت ویژه‌ای برخوردار است، رویکردی گسترده برای ماشین‌ها برای یادگیری عملکرد هدف یک انسان یا عامل دیگر. کریستین چالش‌های هنجاری مرتبط با نوع‌دوستی مؤثر و خطر وجودی را مورد بحث قرار می‌دهد، از جمله کارهای

فیلسوفان توبی اورد و ویلیام مک اسکیل که در تلاش هستند تا راهبردهای انسانی و ماشینی را برای هدایت مشکل هم‌ترازی تا حد امکان مؤثر طراحی کنند.

در سال 2021، روزنامه نگار ازرا کلاین، کریستین را در پادکست خود، نمایش ازرا کلاین، داشت و در نیویورک تایمز نوشت: «مشکل همسویی بهترین کتابی است که در مورد سؤالات کلیدی فنی و اخلاقی هوش مصنوعی خوانده ام». ] بعداً در همان سال، این کتاب در یکی از ویژگی‌های Fast Company، "5 کتابی که امسال الهام بخش ساتیا نادلا مدیرعامل مایکروسافت بودند" فهرست شد.

معرفی کتاب پایین copy