هوش مصنوعی چگونه افراد را دچار وابستگی عاطفی می کند؟

در انجمن‌های پیام‌رسان آنلاین که به چنین برنامه‌هایی اختصاص دارد، بسیاری از کاربران می‌گویند وابستگی‌های عاطفی به هوش مصنوعی و این ربات‌ها ایجاد کرده‌اند

هوش مصنوعی چگونه افراد را دچار وابستگی عاطفی می کند؟

اغلب افراد از هوش مصنوعی برای کنار آمدن با تنهایی، بازی کردن یا دریافت راحتی و حمایت که در زندگی استفاده می‌کنند. 

به گزارش خط سلامت در حالی که هوش مصنوعی دستاوردهای بهره وری عظیمی را به ارمغان می آورد، فاقد هوش عاطفی انسان است توانایی درک، همدلی و ارتباط در سطح احساسی. با افزایش اتوماسیون، هوش هیجانی در سراسر نیروی کار حیاتی تر می شود.

محققان گوگل می‌گویند با وجودی که دستیار‌های هوش مصنوعی ابزارهایی مفید و کاربردی هستند، اما می‌توانند کاربران را از نظر عاطفی بیش از حد به خود وابسته کنند. این وابستگی عاطفی می‌تواند پیامد‌های اجتماعی منفی به‌دنبال داشته باشد.

دستیارهای هوش مصنوعی این روزها بیش‌از‌پیش درحال توسعه هستند و تقریباً در تمامی پلتفرم‌ها به ابزاری کاربرپسند تبدیل شده‌اند. با این شرایط، محققان گوگل در مقاله‌ای در مورد استفاده بیش از حد از آن‌ها و وابستگی عاطفی کاربران نسبت به چنین ابزارهایی هشدار می‌دهند.

 وابستگی عاطفی به هوش مصنوعی

براساس مقاله جدید آزمایشگاه تحقیقاتی DeepMind گوگل، دستیاران هوش مصنوعی پیشرفته و شخصی‌سازی‌شده مزایای بالقوه زیادی به‌همراه دارند و می‌توانند تغییراتی همه‌جانبه در زندگی ما ایجاد کنند. این ابزارها می‌توانند وضعیت کار، آموزش و فعالیت‌های خلاقانه و همچنین نحوه برقراری ارتباط ما را تغییر دهند. محققان این مطالعه می‌گویند اگر توسعه هوش مصنوعی بدون برنامه‌ریزی مدبرانه باشد، می‌تواند به یک شمشیر دولبه تبدیل شود.

این مقاله می‌گوید: «این ابزارهای غیرطبیعی (مصنوعی) حتی ممکن است محبتی خیالی و رویکردی عاشقانه نسبت به کاربر ابراز کنند. چنین وضعیت‌هایی می‌تواند پایه و اساس ایجاد وابستگی عاطفی طولانی‌مدت به هوش مصنوعی را برای کاربران ایجاد کنند.»

در صورت عدم کنترل این ارتباط، استقلال کاربر ممکن است تحت‌الشعاع قرار گیرد و روی روابط اجتماعی وی تأثیرگذار باشد. هوش مصنوعی حتی می‌تواند جایگزین تعامل انسانی شود.

این خطرات، صرفاً موضوعاتی نظری نیستند. حتی زمانی که هوش مصنوعی در حد یک چت‌بات باشد نیز می‌تواند روی کاربر تأثیر بگذارد. در سال 2023 کاربر پس از چت طولانی با چت‌بات متقاعد شده بود که خودکشی کند.

«ایسون گابریل»، دانشمند محقق در تیم تحقیقاتی DeepMind و یکی از نویسندگان مقاله در توییتی هشدار داد که انواع دستیار شخصی و دستیارهای شبیه انسان، به‌صورت فزاینده‌ای برخی موضوعات در مورد انسان‌شناسی، حریم خصوصی، اعتماد و روابط مناسب را مطرح می‌کنند. او معتقد است که باید با دقت بیشتری به حوزه‌های اجتماعی و هوش مصنوعی توجه کرد.  برای ورود به صفحه اینستاگرام کلیک کنید.

تمام مطالب سایت اختصاصی و توسط تحریریه خط سلامت تولید شده است، استفاده با ذکر منبع و لینک دهی بلامانع است.

منبع: دیجیاتو

ارسال نظر

آخرین اخبار
خط سلامت
فیلم ها
  • خط سلامت: عشق و حسادت با هم مرتبط هستند زیرا یک هورمون مشترک در این دو احساس نقش دارد. عشق احساسی است که به هورمون…

گزارش ویژه
پادکست
اتاق درمان