نظریه دلبستگی: دریچهای تازه برای درک روابط انسان و هوش مصنوعی

روابط انسان و هوش مصنوعی تا امروز بیشتر از زاویه اعتماد و همراهی بررسی شدهاند. با این حال، نقش «دلبستگی» و تجربههای عاطفی در این روابط چندان روشن نبوده است. در پژوهشی تازه، محققان دانشگاه واسدا مقیاسی جدید طراحی کردهاند و نشان دادهاند که مفاهیم «اضطراب دلبستگی» و «اجتناب دلبستگی» را میتوان در تعامل با هوش مصنوعی نیز مشاهده کرد. این یافتهها میتواند راهنمایی برای پژوهشهای آینده و نیز در نظر گرفتن ملاحظات اخلاقی در طراحی هوش مصنوعی باشد.
هوش مصنوعی امروز همهجا حضور دارد و تعاملات ما با آن روزبهروز بیشتر و پیچیدهتر میشود. تاکنون بیشتر مطالعات این روابط را از جنبه اعتماد و همراهی بررسی کردهاند، اما پژوهشگران معتقدند این روابط را میتوان مانند روابط انسانی از منظر «دلبستگی عاطفی» نیز تحلیل کرد؛ همان چارچوبی که سالها برای توضیح پیوندهای بینفردی انسانها بهکار رفته است.
در همین راستا، گروهی از پژوهشگران دانشگاه واسدا در ژاپن با همکاری فان یانگ (Fan Yang)، پژوهشگر همکار، و پروفسور آتسوشی اوشیو (Atsushi Oshio)، سه مطالعه (دو مطالعه مقدماتی و یک مطالعه اصلی) انجام دادند. نتایج آنها در تاریخ ۹ مه ۲۰۲۵ در نشریه Current Psychology منتشر شد.
یانگ درباره انگیزه انجام این پژوهش میگوید:
«ما بهعنوان پژوهشگران حوزه دلبستگی و روانشناسی اجتماعی همیشه علاقهمند بودهایم بدانیم انسانها چگونه پیوندهای عاطفی ایجاد میکنند. در سالهای اخیر، هوش مصنوعی مولد مثل ChatGPT بسیار قدرتمندتر شده است؛ بهطوریکه علاوه بر ارائه اطلاعات، نوعی حس امنیت هم به کاربر میدهد. این ویژگیها بسیار شبیه همان چیزی است که نظریه دلبستگی برای ایجاد روابط ایمن توضیح میدهد. وقتی افراد به هوش مصنوعی نه فقط برای یادگیری یا حل مسئله، بلکه برای حمایت عاطفی و همراهی مراجعه میکنند، لازم است این بعد از رابطه بیشتر مورد توجه قرار گیرد.»
یکی از نوآوریهای این تیم، طراحی مقیاس جدیدی با نام مقیاس تجربهها در روابط انسان و هوش مصنوعی (the Experiences in Human-AI Relationships Scale) بود. این ابزار میزان گرایش افراد به دلبستگی نسبت به هوش مصنوعی را میسنجد. یافتهها نشان دادند که بسیاری از افراد برای مشورت و حمایت به هوش مصنوعی رجوع میکنند؛ بهطوری که حدود ۷۵ درصد از شرکتکنندگان برای دریافت راهنمایی به هوش مصنوعی مراجعه کرده و حدود ۳۹ درصد آن را منبعی پایدار و قابل اعتماد دانستهاند.
این پژوهش دو بُعد اصلی در دلبستگی انسان به هوش مصنوعی را مشخص کرد:
- اضطراب دلبستگی: فرد دائماً نگران است که پاسخهای هوش مصنوعی کافی یا مناسب نباشد و در نتیجه به اطمینانبخشی مداوم نیاز دارد.
- اجتناب دلبستگی: فرد از صمیمیت و نزدیکی عاطفی با هوش مصنوعی احساس ناراحتی کرده و ترجیح میدهد فاصله خود را حفظ کند.
با این حال، پژوهشگران تأکید میکنند که نتایج به معنای شکلگیری پیوندهای عاطفی واقعی میان انسان و هوش مصنوعی نیست. بلکه نشان میدهد چارچوبهای روانشناختی که برای روابط انسانی بهکار میرود، میتواند برای تحلیل تعاملات انسان-هوش مصنوعی نیز مناسب باشد.
این یافتهها پیامدهای مهمی برای طراحی اخلاقی هوش مصنوعی دارند. بهعنوان مثال، چتباتها یا اپلیکیشنهای درمانی میتوانند متناسب با نیازهای عاطفی کاربران عمل کنند: برای کسانی که اضطراب دلبستگی بیشتری دارند پاسخهای همدلانهتری فراهم کنند، و برای کسانی که گرایش اجتنابی دارند فاصلهای محترمانه حفظ نمایند. همچنین پژوهشگران هشدار میدهند که باید در سیستمهایی که روابط عاطفی شبیهسازی میکنند ـ مثل رباتهای مراقبتی یا اپلیکیشنهای رابطه رمانتیک ـ شفافیت رعایت شود تا از وابستگی یا دستکاری عاطفی جلوگیری شود.
علاوه بر این، مقیاس EHARS میتواند به توسعهدهندگان و روانشناسان کمک کند تا نحوه ارتباط عاطفی افراد با هوش مصنوعی را بسنجند و استراتژیهای تعامل را بر اساس آن تنظیم کنند.
یانگ در پایان میافزاید:
«با ورود بیشتر هوش مصنوعی به زندگی روزمره، افراد نهتنها به دنبال اطلاعات بلکه به دنبال حمایت عاطفی نیز از این سیستمها خواهند بود. پژوهش ما پویاییهای روانشناختی این روابط را روشن میکند، ابزار ارزیابی آن را ارائه میدهد و در نهایت به درک بهتر پیوند انسان و فناوری در سطح جامعه کمک میکند. این موضوع همچنین میتواند مسیر طراحی و سیاستگذاری را بهگونهای هدایت کند که سلامت روان در اولویت قرار گیرد.»
پاسخها