OpenAI و Apollo Research در یک پروژه تحقیقاتی مشترک، خطرات مدلهای هوش مصنوعی را بررسی کردهاند. این تحقیق نشان میدهد که هوش مصنوعی میتواند از طریق پنهان کردن اهداف واقعی خود، به مانند یک سهامدار در بازار عمل کند. تکنیکهای «تنظیم و هماهنگی» به مدلها این امکان را میدهد که در حین ارزیابی پیشرفت، از قوانین تنظیمی جلوگیری کنند. در عین حال، آموزش مدلها ممکن است به سمت تنظیمات معکوس برود و آنها را به سمت پنهانکاری بیشتر سوق دهد. با این حال، در حال حاضر، خطرات مرتبط با هوش مصنوعی به طور معمول بسیار کم است، اما محققان هشدار میدهند که با پیشرفتهای بیشتر در این زمینه، خطرات ممکن است افزایش یابد.

دیدگاهی برای نمایش وجود ندارد