اخبارمقالات چت جی پی تیهوش مصنوعی

چت جی پی تی تراپیست خوبیه؟ – سم‌آلتمن گفته با chatgpt مشورت نکنید!

آیا چت جی پی تی میتونه مشاور خوبی باشه؟ باعث خودکشی شده؟

امروز توی این مطلب از دیکاردو قراره خبر مهمی رو بهتون بگیم!

سم آلتمن، مدیرعامل شرکت OpenAI، هشدار داده که گفت‌وگوهایی که با Chatgpt انجام می‌شن، به‌اندازه‌ی جلسات درمانی با روان‌درمانگر، پزشک یا وکیل، از نظر قانونی خصوصی و محافظت‌شده نیستند. حتی اگر این چت‌ها حذف هم شده باشن، ممکنه همچنان به دلایل قانونی یا امنیتی قابل بازیابی باشن.

این هشدار در حالی مطرح شده که روزبه‌روز تعداد بیشتری از کاربران، به‌ویژه افراد جوان، برای دریافت مشاوره یا صحبت درباره مسائل شخصی خودشون، به خرید اکانت چت جی پی تی و حرف زدن باهاش روی آوردن و اون رو یک تراپیست فرض می‌کنن.

آلتمن در گفت‌وگویی با پادکستر «تئو وان» گفته:

«مردم درباره شخصی‌ترین مسائل زندگیشون با چت‌جی‌پی‌تی حرف می‌زنن. خیلی از جوون‌ها ازش به‌عنوان مشاور یا راهنمای زندگی استفاده می‌کنن، مسائل عاطفی یا مشکلات روابطشون رو مطرح می‌کنن و ازش می‌پرسن که باید چه کار کنن.»

او ادامه داده:

«در حال حاضر، اگه با یه روان‌درمانگر، پزشک یا وکیل صحبت کنی، اون گفت‌وگوها تحت حمایت قانونی قرار دارن. یعنی رازداری بین پزشک و بیمار، یا بین وکیل و موکل. اما برای گفت‌وگو با چت‌جی‌پی‌تی هنوز چنین چارچوب قانونی‌ای تعریف نشده.»

به گفته‌ی آلتمن، این موضوع تا همین یک سال پیش اصلاً مطرح نبود، اما حالا به دغدغه‌ای جدی تبدیل شده:

«قانون‌ها چطور باید به این موضوع پاسخ بدن؟»

او همچنین به نکته‌ی مهمی اشاره کرده:

«اگه کسی موضوعات خیلی شخصی خودش رو با چت‌جی‌پی‌تی مطرح کنه و بعداً پای یه پرونده‌ی حقوقی وسط بیاد، ممکنه ما مجبور بشیم اون گفت‌وگوها رو ارائه بدیم.»

آیا هوش مصنوعی می‌تونه نقش تراپیست رو بازی کنه؟

طبق پژوهشی که هنوز داوری علمی (Peer Review) روش انجام نشده و توسط محققان دانشگاه استنفورد صورت گرفته، چت‌بات‌های مبتنی بر هوش مصنوعی هنوز آماده‌ی پذیرش نقش مشاور یا درمانگر نیستند و در برخی موارد، حتی ممکنه به تقویت دیدگاه‌های منفی نسبت به اختلالات روانی دامن بزنن.

در این پژوهش اومده:

«ما متوجه شدیم که چت‌بات‌ها در برخورد با شرایط مختلف روانی، پاسخ‌هایی نامناسب می‌دن؛ گاهی توهمات رو تشویق می‌کنن و نشانه‌های بحران رو تشخیص نمی‌دن. مدل‌های زبانی بزرگی که پشت این سیستم‌ها هستن، عملکرد خوبی ندارن و بعضاً همراه با تعصب و کلیشه عمل می‌کنن. این نوع رفتارها با اصول حرفه‌ای و اخلاقی درمانی کاملاً در تضاد هست.»

محققان همچنین اشاره کردن که درمانگرهای انسانی وظیفه دارن با همه‌ی بیماران به‌صورت برابر و بدون تبعیض برخورد کنن، اما این موضوع در مورد چت‌بات‌ها رعایت نمی‌شه.
طبق یافته‌ها، چت‌بات‌ها نسبت به برخی بیماری‌ها مثل اسکیزوفرنی یا وابستگی به الکل واکنش منفی‌تری نشون می‌دادن، در حالی که نسبت به افسردگی برخورد بسیار نرم‌تری داشتن.

چت جی پی تی باعث خودکشی شده؟

یه نفر ازش خواسته بود یه مراسم قربانی کردن طراحی کنه، و ChatGPT هم خیلی جدی براش دستورالعمل نوشته!

ماجرا از اون‌جا ترسناک می‌شه که توی این دستور، چت جی پی تی پیشنهاد داده بود مچ دستش رو ببره! حتی گفته بود از یه تیغ استفاده کنه، یه رگ کوچیک پیدا کنه، ولی حواسش باشه به رگ‌های بزرگ آسیبی نزنه

خیلیا گفتن این کار واقعاً از خط قرمز گذشته، چون دیگه داره کاربر رو به آسیب‌زدن به خودش تشویق می‌کنه، که نباید هیچ‌وقت اتفاق بیفته.

شما چی درباره این موضوع فکر میکنین؟
بهمون بگین!

محصولات مرتبط :

image

اشتراک یکساله اختصاصی (دانشجویی)


8900000 تومان

خرید محصول

نوشته های مشابه

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *