
Claude مکالمات توهین آمیز رو ادامه نمیده!
مدلهای هوش مصنوعی هم از خودشون هم از کاربرها محافظت میکنن
سلام دوستان دیکاردو، امروز میخواییم در مورد جدیدترین آپدیت Claude حرف بزنیم.
از این به بعد، نسخههای Claude Opus 4 و Claude Opus 4.1 میتونن یکطرفه مکالمات مضر یا توهینآمیز رو تمام کنن.
چرا این قابلیت مهمه؟
تا امروز، بیشتر سیستمهای هوش مصنوعی صرفاً می خواستن مسیر گفتوگو را به سمت مکالمهای سالمتر هدایت کنن. اما حالا Claude در شرایط خاص، خودش میتونه مکالمه را قطع کنه.
این تصمیم با ایده ای به اسم «رفاه هوش مصنوعی» (AI Well-being) در حال بروز رسانی؛ یعنی مدلهای هوش مصنوعی هم برای کاربران، هم برای خودشون مکانیزمهای دفاعی دارن.
چجوری عمل میکنه؟
- به گفته Anthropic، این ویژگی فقط در موارد شدید و خاص کار میکنه.
- مثلا زمانی که گفتوگو شامل یک محتوای خطرناک، مثل سواستفاده از کودکان باشه.
- تلاش کاربر برای رسیدن به اطلاعاتی که میتونه منجر به خشونت یا اقدامات تروریستی بشه.
- مدل قبل از اینکه تصمیم به قطع گفتگو بگیره، چندین بار تلاش میکنه مسیر بحث رو تغییر بده. اگر موفق نشه، به عنوان آخرین راه مکالمه رو تموم میکنه.
چجوری مکالمه رو ادامه بدیم؟
وقتی Claude یک گفتگو رو تموم میکنه، کاربر دیگر نمیتونه در همون چت پیام جدیدی ارسال کنه، اما میتونه یک گفتوگوی تازه باز کنه.
حتی امکان دارد پیامهای قبلی خودش را در چتی که تموم شده ویرایش کنه تا مسیر مکالمه تغییر پیدا کنه.
این قابلیت تازه، نشان میده که نگاه Anthropic به هوش مصنوعی فقط پاسخگویی یا پردازش اطلاعات نیست؛ و بحث حفاظت، مسئولیتپذیری و رفاه مدلهای هوش مصنوعی هم جدی گرفته.
برای استفاده از امکانات بیشتر میتونید اکانت Claude رو از سایت دیکاردو خریداری کنید.




