
چت جی پی تی تراپیست خوبیه؟ – سمآلتمن گفته با chatgpt مشورت نکنید!
آیا چت جی پی تی میتونه مشاور خوبی باشه؟ باعث خودکشی شده؟
امروز توی این مطلب از دیکاردو قراره خبر مهمی رو بهتون بگیم!
سم آلتمن، مدیرعامل شرکت OpenAI، هشدار داده که گفتوگوهایی که با Chatgpt انجام میشن، بهاندازهی جلسات درمانی با رواندرمانگر، پزشک یا وکیل، از نظر قانونی خصوصی و محافظتشده نیستند. حتی اگر این چتها حذف هم شده باشن، ممکنه همچنان به دلایل قانونی یا امنیتی قابل بازیابی باشن.
این هشدار در حالی مطرح شده که روزبهروز تعداد بیشتری از کاربران، بهویژه افراد جوان، برای دریافت مشاوره یا صحبت درباره مسائل شخصی خودشون، به خرید اکانت چت جی پی تی و حرف زدن باهاش روی آوردن و اون رو یک تراپیست فرض میکنن.
آلتمن در گفتوگویی با پادکستر «تئو وان» گفته:
«مردم درباره شخصیترین مسائل زندگیشون با چتجیپیتی حرف میزنن. خیلی از جوونها ازش بهعنوان مشاور یا راهنمای زندگی استفاده میکنن، مسائل عاطفی یا مشکلات روابطشون رو مطرح میکنن و ازش میپرسن که باید چه کار کنن.»
او ادامه داده:
«در حال حاضر، اگه با یه رواندرمانگر، پزشک یا وکیل صحبت کنی، اون گفتوگوها تحت حمایت قانونی قرار دارن. یعنی رازداری بین پزشک و بیمار، یا بین وکیل و موکل. اما برای گفتوگو با چتجیپیتی هنوز چنین چارچوب قانونیای تعریف نشده.»
به گفتهی آلتمن، این موضوع تا همین یک سال پیش اصلاً مطرح نبود، اما حالا به دغدغهای جدی تبدیل شده:
«قانونها چطور باید به این موضوع پاسخ بدن؟»
او همچنین به نکتهی مهمی اشاره کرده:
«اگه کسی موضوعات خیلی شخصی خودش رو با چتجیپیتی مطرح کنه و بعداً پای یه پروندهی حقوقی وسط بیاد، ممکنه ما مجبور بشیم اون گفتوگوها رو ارائه بدیم.»
آیا هوش مصنوعی میتونه نقش تراپیست رو بازی کنه؟
طبق پژوهشی که هنوز داوری علمی (Peer Review) روش انجام نشده و توسط محققان دانشگاه استنفورد صورت گرفته، چتباتهای مبتنی بر هوش مصنوعی هنوز آمادهی پذیرش نقش مشاور یا درمانگر نیستند و در برخی موارد، حتی ممکنه به تقویت دیدگاههای منفی نسبت به اختلالات روانی دامن بزنن.
در این پژوهش اومده:
«ما متوجه شدیم که چتباتها در برخورد با شرایط مختلف روانی، پاسخهایی نامناسب میدن؛ گاهی توهمات رو تشویق میکنن و نشانههای بحران رو تشخیص نمیدن. مدلهای زبانی بزرگی که پشت این سیستمها هستن، عملکرد خوبی ندارن و بعضاً همراه با تعصب و کلیشه عمل میکنن. این نوع رفتارها با اصول حرفهای و اخلاقی درمانی کاملاً در تضاد هست.»
محققان همچنین اشاره کردن که درمانگرهای انسانی وظیفه دارن با همهی بیماران بهصورت برابر و بدون تبعیض برخورد کنن، اما این موضوع در مورد چتباتها رعایت نمیشه.
طبق یافتهها، چتباتها نسبت به برخی بیماریها مثل اسکیزوفرنی یا وابستگی به الکل واکنش منفیتری نشون میدادن، در حالی که نسبت به افسردگی برخورد بسیار نرمتری داشتن.
چت جی پی تی باعث خودکشی شده؟
یه نفر ازش خواسته بود یه مراسم قربانی کردن طراحی کنه، و ChatGPT هم خیلی جدی براش دستورالعمل نوشته!
ماجرا از اونجا ترسناک میشه که توی این دستور، چت جی پی تی پیشنهاد داده بود مچ دستش رو ببره! حتی گفته بود از یه تیغ استفاده کنه، یه رگ کوچیک پیدا کنه، ولی حواسش باشه به رگهای بزرگ آسیبی نزنه
خیلیا گفتن این کار واقعاً از خط قرمز گذشته، چون دیگه داره کاربر رو به آسیبزدن به خودش تشویق میکنه، که نباید هیچوقت اتفاق بیفته.
شما چی درباره این موضوع فکر میکنین؟
بهمون بگین!