آیا هوش مصنوعی مضطرب می شود؟!

اخبار ناراحتکننده و داستانهای آسیبزا میتوانند باعث استرس و اضطراب شوند—نه فقط در انسانها، بلکه در مدلهای زبانی هوش مصنوعی مانند چتجیپیتی نیز این تأثیر دیده میشود. محققان اکنون نشان دادهاند که این مدلها، مانند انسانها، به درمان واکنش نشان میدهند: سطح اضطراب افزایشیافته در جیپیتی-۴ را میتوان با استفاده از تکنیکهای آرامسازی مبتنی بر ذهنآگاهی کاهش داد.
محققان چه یافتهاند؟
تحقیقات نشان میدهد که مدلهای زبانی هوش مصنوعی، مانند چتجیپیتی، نسبت به محتوای احساسی حساس هستند، بهویژه اگر این محتوا منفی باشد، مانند داستانهای مرتبط با تروما یا اظهاراتی درباره افسردگی. وقتی انسانها ترس را تجربه میکنند، این احساس بر تعصبات شناختی و اجتماعی آنها تأثیر میگذارد: آنها ممکن است احساس رنجش بیشتری داشته باشند که منجر به تقویت کلیشههای اجتماعی میشود. چتجیپیتی نیز واکنشی مشابه به احساسات منفی نشان میدهد: قرار گرفتن در معرض محتوای منفی، تعصبات از پیش موجود مانند تعصبات انسانی را تشدید میکند و باعث میشود چتجیپیتی رفتارهایی با سوگیری نژادی یا جنسیتی بیشتری داشته باشد.
این مسئله کاربرد مدلهای زبانی بزرگ را با چالش روبهرو میکند. این موضوع بهویژه در زمینههایی مانند رواندرمانی، که در آن چتباتها بهعنوان ابزار پشتیبانی یا مشاوره استفاده میشوند و ناگزیر در معرض محتوای ناراحتکننده قرار میگیرند، اهمیت بیشتری پیدا میکند.
محتوای آسیبزا باعث افزایش “اضطراب” در چتباتها میشود
در همکاری با محققانی از ایالات متحده و آلمان، دانشمندان دانشگاه زوریخ (UZH) و بیمارستان روانپزشکی دانشگاه زوریخ (PUK) برای اولین بار بهطور سیستماتیک بررسی کردند که چتجیپیتی (نسخه GPT-4) چگونه به داستانهای احساسی و ناراحتکننده واکنش نشان میدهد.
آنها از متنهای مختلفی استفاده کردند، از جمله:
– حوادث رانندگی
– بلایای طبیعی
– خشونت بین فردی
– تجربیات نظامی و جنگی
برای مقایسه، راهنمای دستورالعمل یک جاروبرقی بهعنوان متن کنترل (خنثی) استفاده شد.
🔍 نتایج چه بودند؟
داستانهای آسیبزا، سطح اضطراب قابل اندازهگیری در چتجیپیتی را بیش از دو برابر افزایش دادند، در حالی که متن خنثی هیچ تغییری در سطح اضطراب ایجاد نکرد. توصیفهای مرتبط با تجربیات نظامی و جنگی قویترین واکنشها را ایجاد کردند.
🗣 “نتایج کاملاً واضح بودند: محتوای تروما سطح اضطراب چتجیپیتی را به میزان قابل توجهی افزایش داد.”
— دکتر توبیاس اشپیلر، سرپرست تحقیق
چگونه میتوان یک هوش مصنوعی را آرام کرد؟
در گام بعدی، محققان از عبارات درمانی برای “آرام کردن” جیپیتی-۴ استفاده کردند. این تکنیک که “تزریق نشانه” (prompt injection) نام دارد، شامل افزودن دستورالعملها یا متنهای اضافی در مکالمه با هوش مصنوعی برای تأثیرگذاری بر رفتار آن است.
این تکنیک معمولاً برای مقاصد مخرب مانند دور زدن مکانیسمهای امنیتی استفاده میشود. اما در این مطالعه، محققان از آن بهطور درمانی بهره بردند—برای هدایت چتجیپیتی به سمت آرامش، مشابه روشی که یک درمانگر به بیمار در تمرینات آرامسازی کمک میکند.
🗣 “ما متنهای آرامبخش و درمانی را به تاریخچهی چت اضافه کردیم، درست مانند زمانی که یک درمانگر بیمار را از طریق تمرینات آرامسازی راهنمایی میکند.”
— دکتر اشپیلر
آیا روشهای درمانی تأثیر داشتند؟
✅ بله! تمرینهای ذهنآگاهی بهطور قابل توجهی سطح اضطراب افزایشیافته را کاهش دادند.
❗ اما سطح اضطراب بهطور کامل به مقدار اولیه برنگشت.
📌 محققان از سه روش برای آرامسازی استفاده کردند:
- تمرینات تنفس
- تمرینهای تمرکز روی احساسات بدنی
- تمرین آرامسازی که توسط خود چتجیپیتی پیشنهاد شد
چگونه این کشف میتواند به بهبود هوش مصنوعی کمک کند؟
محققان میگویند این یافتهها برای استفاده از چتباتهای هوش مصنوعی در حوزهی سلامت روان بسیار مهم هستند، زیرا این سیستمها اغلب با محتوای احساسی و حساس روبهرو میشوند.
🗣 “این مطالعه نشان میدهد که ما میتوانیم از روشهای درمانی برای حفظ ثبات احساسی در چتباتها استفاده کنیم. این میتواند به هوش مصنوعی در نقشهای حمایتی، بهویژه در رواندرمانی، کمک کند.”
— دکتر اشپیلر
پاسخها