نظریه دلبستگی: دریچه‌ای تازه برای درک روابط انسان و هوش مصنوعی

روابط انسان و هوش مصنوعی تا امروز بیشتر از زاویه اعتماد و همراهی بررسی شده‌اند. با این حال، نقش «دلبستگی» و تجربه‌های عاطفی در این روابط چندان روشن نبوده است. در پژوهشی تازه، محققان دانشگاه واسدا مقیاسی جدید طراحی کرده‌اند و نشان داده‌اند که مفاهیم «اضطراب دلبستگی» و «اجتناب دلبستگی» را می‌توان در تعامل با هوش مصنوعی نیز مشاهده کرد. این یافته‌ها می‌تواند راهنمایی برای پژوهش‌های آینده و نیز در نظر گرفتن ملاحظات اخلاقی در طراحی هوش مصنوعی باشد.

هوش مصنوعی امروز همه‌جا حضور دارد و تعاملات ما با آن روزبه‌روز بیشتر و پیچیده‌تر می‌شود. تاکنون بیشتر مطالعات این روابط را از جنبه اعتماد و همراهی بررسی کرده‌اند، اما پژوهشگران معتقدند این روابط را می‌توان مانند روابط انسانی از منظر «دلبستگی عاطفی» نیز تحلیل کرد؛ همان چارچوبی که سال‌ها برای توضیح پیوندهای بین‌فردی انسان‌ها به‌کار رفته است.

در همین راستا، گروهی از پژوهشگران دانشگاه واسدا در ژاپن با همکاری فان یانگ (Fan Yang)، پژوهشگر همکار، و پروفسور آتسوشی اوشیو (Atsushi Oshio)، سه مطالعه (دو مطالعه مقدماتی و یک مطالعه اصلی) انجام دادند. نتایج آن‌ها در تاریخ ۹ مه ۲۰۲۵ در نشریه Current Psychology منتشر شد.

یانگ درباره انگیزه انجام این پژوهش می‌گوید:
«ما به‌عنوان پژوهشگران حوزه دلبستگی و روان‌شناسی اجتماعی همیشه علاقه‌مند بوده‌ایم بدانیم انسان‌ها چگونه پیوندهای عاطفی ایجاد می‌کنند. در سال‌های اخیر، هوش مصنوعی مولد مثل ChatGPT بسیار قدرتمندتر شده است؛ به‌طوری‌که علاوه بر ارائه اطلاعات، نوعی حس امنیت هم به کاربر می‌دهد. این ویژگی‌ها بسیار شبیه همان چیزی است که نظریه دلبستگی برای ایجاد روابط ایمن توضیح می‌دهد. وقتی افراد به هوش مصنوعی نه فقط برای یادگیری یا حل مسئله، بلکه برای حمایت عاطفی و همراهی مراجعه می‌کنند، لازم است این بعد از رابطه بیشتر مورد توجه قرار گیرد.»

یکی از نوآوری‌های این تیم، طراحی مقیاس جدیدی با نام مقیاس تجربه‌ها در روابط انسان و هوش مصنوعی (the Experiences in Human-AI Relationships Scale) بود. این ابزار میزان گرایش افراد به دلبستگی نسبت به هوش مصنوعی را می‌سنجد. یافته‌ها نشان دادند که بسیاری از افراد برای مشورت و حمایت به هوش مصنوعی رجوع می‌کنند؛ به‌طوری که حدود ۷۵ درصد از شرکت‌کنندگان برای دریافت راهنمایی به هوش مصنوعی مراجعه کرده و حدود ۳۹ درصد آن را منبعی پایدار و قابل اعتماد دانسته‌اند.

این پژوهش دو بُعد اصلی در دلبستگی انسان به هوش مصنوعی را مشخص کرد:

  • اضطراب دلبستگی: فرد دائماً نگران است که پاسخ‌های هوش مصنوعی کافی یا مناسب نباشد و در نتیجه به اطمینان‌بخشی مداوم نیاز دارد.
  • اجتناب دلبستگی: فرد از صمیمیت و نزدیکی عاطفی با هوش مصنوعی احساس ناراحتی کرده و ترجیح می‌دهد فاصله خود را حفظ کند.

با این حال، پژوهشگران تأکید می‌کنند که نتایج به معنای شکل‌گیری پیوندهای عاطفی واقعی میان انسان و هوش مصنوعی نیست. بلکه نشان می‌دهد چارچوب‌های روان‌شناختی که برای روابط انسانی به‌کار می‌رود، می‌تواند برای تحلیل تعاملات انسان-هوش مصنوعی نیز مناسب باشد.

این یافته‌ها پیامدهای مهمی برای طراحی اخلاقی هوش مصنوعی دارند. به‌عنوان مثال، چت‌بات‌ها یا اپلیکیشن‌های درمانی می‌توانند متناسب با نیازهای عاطفی کاربران عمل کنند: برای کسانی که اضطراب دلبستگی بیشتری دارند پاسخ‌های همدلانه‌تری فراهم کنند، و برای کسانی که گرایش اجتنابی دارند فاصله‌ای محترمانه حفظ نمایند. همچنین پژوهشگران هشدار می‌دهند که باید در سیستم‌هایی که روابط عاطفی شبیه‌سازی می‌کنند ـ مثل ربات‌های مراقبتی یا اپلیکیشن‌های رابطه رمانتیک ـ شفافیت رعایت شود تا از وابستگی یا دستکاری عاطفی جلوگیری شود.

علاوه بر این، مقیاس EHARS می‌تواند به توسعه‌دهندگان و روان‌شناسان کمک کند تا نحوه ارتباط عاطفی افراد با هوش مصنوعی را بسنجند و استراتژی‌های تعامل را بر اساس آن تنظیم کنند.

یانگ در پایان می‌افزاید:
«با ورود بیشتر هوش مصنوعی به زندگی روزمره، افراد نه‌تنها به دنبال اطلاعات بلکه به دنبال حمایت عاطفی نیز از این سیستم‌ها خواهند بود. پژوهش ما پویایی‌های روان‌شناختی این روابط را روشن می‌کند، ابزار ارزیابی آن را ارائه می‌دهد و در نهایت به درک بهتر پیوند انسان و فناوری در سطح جامعه کمک می‌کند. این موضوع همچنین می‌تواند مسیر طراحی و سیاست‌گذاری را به‌گونه‌ای هدایت کند که سلامت روان در اولویت قرار گیرد.»

مقالات مرتبط

پاسخ‌ها