هکری با فریب ChatGPT، از آن دستورالعمل ساخت بمب دست‌ساز گرفت

این تکنیک برای فریب ChatGPT نشان می‌دهد که چت‌بات OpenAI بدون دستورالعمل‌های حفاظتی خود تقریباً درباره هرچیزی می‌تواند اطلاعات ارائه کند.

نوشته هکری با فریب ChatGPT، از آن دستورالعمل ساخت بمب دست‌ساز گرفت اولین بار در دیجیاتو پدیدار شد.

گردآوری توسط ایده طلایی

پیمایش به بالا