گاهی اوقات عملکرد ماشین‌‌‌ها در فراسوی چارچوب‌‌‌های درک و تجربه بشر باعث می‌شود تا هوش مصنوعی دیدگاه‌‌‌ها و پیشنهاد‌‌‌هایی را تولید کند که اگرچه درست است اما در دایره فهم انسان‌‌‌ها نمی‌‌‌گنجد و به همین دلیل هم هست که برخورد بشر با این دسته از واقعیت‌‌‌های معرفی‌‌‌شده از طرف هوش مصنوعی برخوردی همراه با تعجب و ناباوری است؛ چراکه این واقعیت‌‌‌های متفاوت در قالب دانش کنونی بشر قرار نمی‌‌‌گیرند. به همین دلیل هم هست که این رفتار هوش مصنوعی از نظر انسان‌‌‌ها یک نوع محدودیت ماشین‌‌‌ها در نظر گرفته می‌شود.

علاوه بر این، هوش مصنوعی این قابلیت را ندارد تا آنچه کشف کرده را به‌‌‌طور کامل منعکس کند و نسبت به آن بازخورد نشان دهد، حال‌‌‌ آنکه انسان در تمام دوره‌‌‌ها پدیده‌‌‌هایی همچون جنگ را تجربه کرده و پس‌‌‌ از آن اقدام به انعکاس درس‌‌‌هایی کرده که آموخته و این کار را به‌‌‌صورت سرودن شعر و روایت داستان و کشیدن نقاشی و بازتعریف تراژدی‌‌‌های مرتبط با جنگ‌‌‌های معروف تاریخ انجام داده است. هوش مصنوعی اما از انجام چنین کارهایی عاجز است و نمی‌تواند در مورد کشف‌‌‌هایی که کرده و گره‌‌‌هایی که از زندگی انسان گشوده و دستاوردهایی که داشته داستان‌‌‌سرایی و قهرمان‌‌‌سازی کند. علاوه بر این، هوش مصنوعی احساس خاصی در مورد ضرورت‌‌‌های اخلاقی و فلسفی راجع به منعکس کردن فعالیت‌‌‌ها و دستاوردهایش ندارد و فقط آموخته که یکسری روش‌های خوب را به کار ببندد و به نتایج مطلوبی دست یابد و این ‌‌‌یک نقطه‌‌‌ضعف بزرگ برای هوش مصنوعی محسوب می‌شود.

از سویی دیگر تجربه نشان داده است که حتی هوش مصنوعی جدید و پیشرفته امروز نیز مرتکب اشتباه و خطا می‌شود. به ‌‌‌عنوان‌‌‌ مثال بارها پیش‌‌‌آمده که نرم‌‌‌افزار تشخیص تصویر گوگل به شکل عجیبی تصویر یک انسان را به‌‌‌صورت تصویر یک حیوان تشخیص داده یا تصویری را که از یک حیوان به او نشان داده ‌‌‌شده، به‌‌‌صورت تصویر یک تفنگ در نظر گرفته است. چنین اشتباهاتی از نظر انسان‌‌‌ها خیلی مضحک و خنده‌‌‌دار به نظر می‌‌‌رسند؛ اما بارها و بارها از هوش مصنوعی سر می‌‌‌زنند.  این اشتباهات هوش مصنوعی ریشه در عوامل مختلفی دارند. تحت‌تاثیر داده‌‌‌ قرار داشتن یکی از مهم‌ترین نقاط ضعف ماشین‌‌‌های هوش مصنوعی است؛ چراکه هوش مصنوعی بدون در اختیار داشتن داده‌‌‌ نمی‌تواند الگوهای جدید را یاد بگیرد و تنها چیزهایی را تشخیص می‌دهد که برایش تعریف‌‌‌شده‌‌‌اند و در برخورد با موقعیت‌‌‌های خاص و تعریف‌‌‌نشده عاجز باقی می‌‌‌ماند. به‌‌‌عنوان ‌‌‌مثال، در مجموعه داده‌هایی که در اختیار ماشین‌‌‌های خودران قرار می‌گیرد، چیزی به نام پریدن یک گونه گوزن کمیاب به وسط جاده‌‌‌ تعریف ‌‌‌نشده و در نتیجه اگر در دنیای واقعی یک گوزن به جلوی یک ماشین خودران در حال حرکت بپرد، آن ماشین هیچ واکنشی در برابر این اتفاق از خود نشان نخواهد داد.

یکی دیگر از نقاط ضعف هوش مصنوعی از آنجا سرچشمه می‌گیرد که هوش مصنوعی معمولا به همان سمتی تمایل پیدا می‌کند که آفرینندگان و طراحانش به آن سمت میل دارند؛ چراکه در جریان فرآیند آموزش به هوش مصنوعی، داده‌‌‌هایی در اختیار ماشین‌‌‌ها قرار می‌‌‌گیرند که مدنظر طراحان است و این اتفاق به معنای واقعی کلمه در جریان یادگیری تحت نظارت روی می‌دهد. به‌‌‌عنوان‌‌‌مثال یک برنامه بازی شطرنج را در نظر بگیرید که طراح آن به انجام یکسری حرکت‌‌‌ها با مهره‌‌‌هایی خاص تمایل دارد. آنچه در جریان برنامه‌‌‌ریزی برای بازی شطرنج توسط این برنامه رخ خواهد داد این است که هوش مصنوعی به انجام حرکت‌‌‌هایی تمایل پیدا می‌کند که مطابق با میل و علاقه طراحش هست؛ حتی اگر این حرکت‌‌‌ها بهترین و درست‌‌‌ترین حرکت‌‌‌های ممکن نباشند.

یکی دیگر از منابع تشخیص اشتباه هوش مصنوعی به عدم‌انعطاف کافی و قدرت انطباق در ماشین‌‌‌های هوش مصنوعی مربوط می‌شود. مثال اشتباه گرفتن یک حیوان با یک تفنگ را در نظر بگیرید: چنین تصویری به این دلیل موجب گمراهی هوش مصنوعی می‌شود که دارای ظرافت‌‌‌هایی است که به چشم ما انسان‌‌‌ها نمی‌‌‌آید؛ اما از چشم تیزبین ماشین‌‌‌ها دور نمی‌‌‌ماند. همین توجه زیاد هوش مصنوعی به جزئیات و ظرافت‌‌‌هاست که موجب گیج شدن و در نتیجه به ‌‌‌اشتباه افتادن ماشین‌‌‌ها می‌شود. از سویی دیگر، هوش مصنوعی فاقد آن چیزی است که ما انسان‌‌‌ها به‌‌‌خوبی از آن برخورداریم و به آن «عقل سلیم» می‌‌‌گوییم. به همین دلیل هم هست که ماشین‌‌‌ها چیزهایی را باهم قاطى می‌کنند که ما انسان‌‌‌ها به‌‌‌سرعت و به‌‌‌آسانی آنها را از هم تشخیص می‌‌‌دهیم و این مشکل در این واقعیت ریشه دارد که قدرت ممیزی و انطباق‌‌‌پذیری هوش مصنوعی پایین است.

شکنندگی هوش مصنوعی تا حد زیادی انعکاسی است از سطحی بودن آن چیزهایی که یاد می‌گیرد. به‌‌‌طورکلی، پیوندهایی که بر مبنای یادگیری تحت نظارت و یادگیری تقویت‌‌‌شده بین ورودی‌‌‌ها و خروجی‌‌‌ها ایجاد می‌شود تفاوت‌‌‌های عمیقی با تجربیات و مفهوم‌‌‌سازی‌‌‌های ما انسان‌‌‌ها دارد. علاوه بر این، چنین شکنندگی قابل‌‌‌توجهی تا حدی به نبود خودآگاهی در ماشین‌‌‌های هوش مصنوعی مربوط می‌شود؛ چراکه ماشین‌‌‌ها از آنچه نمی‌‌‌دانند آگاهی ندارند و از این ‌‌‌جهت با انسان‌‌‌ها تفاوت دارند که از خطاهای فاحش و چیزهایی که اشتباه بودنشان کاملا مشخص است اجتناب می‌کنند.  در این میان مدیریت ریسک‌‌‌هایی که می‌توانند دامان هوش مصنوعی فوق پیشرفته فردا را بگیرند کاملا ضروری و حیاتی است و این وظیفه محققان، شرکت‌ها، دولت‌‌‌ها و البته سازمان‌های جامعه مدنی است که در این زمینه فعال باشند و هوش مصنوعی یادگیرنده و مولد را به مسیر درست و مناسبی هدایت کنند.