۱۰ ارديبهشت ۱۴۰۴
به روز شده در: ۱۰ ارديبهشت ۱۴۰۴ - ۱۴:۲۵
فیلم بیشتر »»
کد خبر ۹۶۱۳۹۱
تاریخ انتشار: ۲۱:۱۹ - ۰۵-۰۲-۱۴۰۳
کد ۹۶۱۳۹۱
انتشار: ۲۱:۱۹ - ۰۵-۰۲-۱۴۰۳

هشدار محققان گوگل: کاربران ممکن است به دستیار‌های هوش مصنوعی وابستگی عاطفی پیدا کنند

هشدار محققان گوگل: کاربران ممکن است به دستیار‌های هوش مصنوعی وابستگی عاطفی پیدا کنند
دستیار‌های هوش مصنوعی این روز‌ها بیش‌از‌پیش درحال توسعه هستند و تقریباً در تمامی پلتفرم‌ها به ابزاری کاربرپسند تبدیل شده‌اند. با این شرایط، محققان گوگل در مقاله‌ای در مورد استفاده بیش از حد از آنها و وابستگی عاطفی کاربران نسبت به چنین ابزار‌هایی هشدار می‌دهند.

محققان گوگل می‌گویند با وجودی که دستیار‌های هوش مصنوعی ابزار‌هایی مفید و کاربردی هستند، اما می‌توانند کاربران را از نظر عاطفی بیش از حد به خود وابسته کنند. این وابستگی عاطفی می‌تواند پیامد‌های اجتماعی منفی به‌دنبال داشته باشد.

به گزارش باشگاه خبرنگاران؛ دستیار‌های هوش مصنوعی این روز‌ها بیش‌از‌پیش درحال توسعه هستند و تقریباً در تمامی پلتفرم‌ها به ابزاری کاربرپسند تبدیل شده‌اند. با این شرایط، محققان گوگل در مقاله‌ای در مورد استفاده بیش از حد از آنها و وابستگی عاطفی کاربران نسبت به چنین ابزار‌هایی هشدار می‌دهند.

براساس مقاله جدید آزمایشگاه تحقیقاتی DeepMind گوگل، دستیاران هوش مصنوعی پیشرفته و شخصی‌سازی‌شده مزایای بالقوه زیادی به‌همراه دارند و می‌توانند تغییراتی همه‌جانبه در زندگی ما ایجاد کنند. این ابزار‌ها می‌توانند وضعیت کار، آموزش و فعالیت‌های خلاقانه و همچنین نحوه برقراری ارتباط ما را تغییر دهند. محققان این مطالعه می‌گویند اگر توسعه هوش مصنوعی بدون برنامه‌ریزی مدبرانه باشد، می‌تواند به یک شمشیر دولبه تبدیل شود.

این مقاله می‌گوید: «این ابزار‌های غیرطبیعی (مصنوعی) حتی ممکن است محبتی خیالی و رویکردی عاشقانه نسبت به کاربر ابراز کنند. چنین وضعیت‌هایی می‌تواند پایه و اساس ایجاد وابستگی عاطفی طولانی‌مدت به هوش مصنوعی را برای کاربران ایجاد کنند.»

در صورت عدم کنترل این ارتباط، استقلال کاربر ممکن است تحت‌الشعاع قرار گیرد و روی روابط اجتماعی وی تأثیرگذار باشد. هوش مصنوعی حتی می‌تواند جایگزین تعامل انسانی شود.

این خطرات، صرفاً موضوعاتی نظری نیستند. حتی زمانی که هوش مصنوعی در حد یک چت‌بات باشد نیز می‌تواند روی کاربر تأثیر بگذارد. در سال ۲۰۲۳ کاربر پس از چت طولانی با چت‌بات متقاعد شده بود که خودکشی کند.

«ایسون گابریل»، دانشمند محقق در تیم تحقیقاتی DeepMind و یکی از نویسندگان مقاله در توییتی هشدار داد که انواع دستیار شخصی و دستیار‌های شبیه انسان، به‌صورت فزاینده‌ای برخی موضوعات در مورد انسان‌شناسی، حریم خصوصی، اعتماد و روابط مناسب را مطرح می‌کنند. او معتقد است که باید با دقت بیشتری به حوزه‌های اجتماعی و هوش مصنوعی توجه کرد.

برچسب ها: هوش مصنوعی ، گوگل
ارسال به دوستان
«چت‌جی‌پی‌تی» چاپلوس شده است سخنگوی قوه قضائیه: بابک زنجانی در مرخصی است؛ فعالیت اقتصادی او منعی ندارد قوه قضائیه : محسن لنگرنشین اعدام شد / جرم: جاسوسی برای اسرائیل ، پشتیبانی از ترور عضو ارشد سپاه در تهران و حمله به مرکز وزارت دفاع در اصفهان شعبه بانک صادرات ایران در بندر شهید رجایی بازسازی و آماده خدمت‌رسانی شد اولین عامل چاپ و انتشار کارت پستال در ایران (عکس) نقاشی یک حس گربه ای؛ متفاوت و دیدنی(تصویری) این کفش معروف 73 میلیون تومان قیمت دارد! (+فیلم و عکس) رئیس سازمان اداری و استخدامی: ساعت کاری تابستانی ادارات از ۱۵ خرداد اجرا می‌شود این سلاح، ناو هواپیمابر را با یک حمله غرق می‌کند / فقط ۲۰ دقیقه تا نابودی کامل (+عکس) مشاور امنیت ملی آمریکا: ایران نمی‌تواند سلاح هسته‌ای داشته باشد وزیر نفت: ایران و عراق پروژه های مشترک نفت و گاز راه اندازی می کنند رم، میزبان دور جدید مذاکرات ایران با تروئیکای اروپا و آمریکا مناقشه در واشنگتن بر سر ایران ؛ انتقادات کم‌سابقه از نفوذ اسرائیل در دولت ترامپ منابع آگاه: وزیر خارجه سوریه در نیویورک با مقامات ارشد وزارت خارجه آمریکا دیدار کرده است مزایده شماره رند ۰۹۰۰۷۷۷۷۷۷۷ وارد مراحل پایانی شد