در ادامه نکات کلیدی مورد توافق آورده شده است. سیستم‌های هوش مصنوعی به اصطلاح پرخطر (آنهایی که پتانسیل قابل توجهی برای آسیب رساندن به سلامت، ایمنی، حقوق اساسی، محیط زیست، دموکراسی، انتخابات و حاکمیت قانون دارند) باید از مجموعه‌ای الزامات مانند ارزیابی تاثیر روی حقوق بنیادی و تعهدات برای دسترسی به بازار اتحادیه اروپا پیروی کنند. سیستم‌های هوش مصنوعی که خطرات کمتری دارند مشمول تعهدات شفافیت بسیار سبکی خواهند بود، مانند برچسب‌هایی که اعلام می‌کنند محتوا توسط هوش مصنوعی تولید شده تا به کاربران اجازه دهد در مورد نحوه استفاده از آن تصمیم بگیرند.

مورد بعدی، استفاده از سیستم‌های شناسایی بیومتریک در فضاهای عمومی توسط مجریان قانون تنها برای کمک به شناسایی قربانیان آدم‌ربایی، قاچاق انسان، بهره‌کشی جنسی و جلوگیری از تهدیدات تروریستی خواهد بود. آنها همچنین در تلاش برای ردیابی افراد مظنون به جرایم تروریستی، قاچاق، بهره‌کشی جنسی، قتل، آدم‌ربایی، تجاوز جنسی، سرقت مسلحانه، مشارکت در یک سازمان جنایی و جنایت محیطی مجاز خواهند بود. سیستم‌های هوش مصنوعی با اهداف عمومی و مدل‌های بنیادی مشمول الزامات شفافیت مانند تهیه مستندات فنی، مطابقت با قانون حق چاپ اتحادیه اروپا و انتشار خلاصه‌های دقیق درباره محتوای مورد استفاده برای آموزش الگوریتم خواهند بود. مدل‌های بنیادی طبقه‌بندی‌شده به عنوان دارای ریسک سیستمی و سیستم‌های هوش مصنوعی با اهداف عمومی با تاثیرگذاری بالا، باید ارزیابی‌های مدل، ارزیابی و کاهش خطرات، انجام آزمایش‌های خصمانه، گزارش به کمیسیون اروپا در مورد حوادث جدی، اطمینان از امنیت سایبری و گزارش کارآیی خود را انجام دهند. بسته به تخلف و اندازه شرکت درگیر، جریمه‌ها از ۷.۵ میلیون یورو (۸ میلیون دلار) یا ۱.۵ درصد گردش مالی سالانه شروع می‌شود و تا ۳۵ میلیون یورو یا ۷ درصد گردش مالی افزایش پیدا می‌کند. نخستین پیش‌نویس قانون هوش مصنوعی اتحادیه اروپا در سال ۲۰۲۱ رونمایی شد که به دنبال همگام‌سازی قوانین برای تنظیم فناوری هوش مصنوعی در سراسر کشورهای عضو اتحادیه اروپا بود. تاکنون مذاکرات بر سر قوانینی که نظارت بیومتریک مانند تشخیص چهره و مدل‌های هوش مصنوعی مانند چت جی‌پی‌تی را تنظیم می‌کنند، بسیار بحث برانگیز بوده است.