۰۷ آبان ۱۴۰۴
به روز شده در: ۰۷ آبان ۱۴۰۴ - ۰۳:۳۰
فیلم بیشتر »»
کد خبر ۱۱۰۸۰۲۶
تاریخ انتشار: ۱۰:۵۸ - ۰۶-۰۸-۱۴۰۴
کد ۱۱۰۸۰۲۶
انتشار: ۱۰:۵۸ - ۰۶-۰۸-۱۴۰۴

بیش از یک‌میلیون گفت‌وگوی هفتگی درباره خودکشی در ChatGPT

بیش از یک‌میلیون گفت‌وگوی هفتگی درباره خودکشی در ChatGPT
OpenAI اعلام کرد بیش از یک‌میلیون کاربر ChatGPT هر هفته درباره افکار خودکشی گفت‌وگو می‌کنند؛ آماری نگران‌کننده از وابستگی عاطفی به هوش مصنوعی.

شرکت OpenAI داده‌هایی نگران‌کننده منتشر کرده است که نشان می‌دهد شمار قابل توجهی از کاربران ChatGPT درباره مشکلات روانی و حتی افکار خودکشی با این ربات گفت‌وگو می‌کنند.

به گزارش تجارت نیوز، بر اساس تحلیل داخلی این شرکت که روز دوشنبه منتشر شد، حدود ۱۵ صدم درصد از کاربران فعال هفتگی ChatGPT در مکالماتی شرکت دارند که نشانه‌های مستقیم از برنامه‌ریزی یا نیت خودکشی در آن دیده می‌شود.

با توجه به اینکه تعداد کاربران فعال هفتگی ChatGPT بیش از ۸۰۰ میلیون نفر برآورد شده، این رقم به معنای آن است که بیش از یک‌میلیون کاربر در هفته از این پلتفرم برای بیان افکار یا نیت‌های مرتبط با خودکشی استفاده می‌کنند. OpenAI اعلام کرده است که اگرچه این آمار بخش کوچکی از کل استفاده از سامانه را تشکیل می‌دهد، اما بیانگر نیاز جدی به بهبود واکنش‌های هوش مصنوعی در برابر کاربران در شرایط بحرانی عاطفی است.

همچنین این شرکت اشاره کرده که درصد مشابهی از کاربران نشانه‌هایی از وابستگی عاطفی به ChatGPT نشان می‌دهند و صدها هزار کاربر دیگر الگوهای رفتاری مرتبط با روان‌پریشی یا شیدایی از خود بروز می‌دهند. OpenAI تأکید کرد که این تعامل‌ها نادر هستند، اما اهمیت بالایی دارند زیرا ممکن است با خطرات واقعی همراه باشند.

دشواری در سنجش خطرات عاطفی

OpenAI این نوع مکالمات را مواردی «بسیار نادر» توصیف کرده که ارزیابی دقیق آن‌ها دشوار است، زیرا شناسایی نشانه‌های اختلال روانی از روی متن کاری پیچیده است. با وجود این محدودیت‌ها، این شرکت برآورد کرده که صدها هزار کاربر در هفته علائم ناراحتی روانی یا هیجانی قابل توجهی نشان می‌دهند.

این داده‌ها بخشی از برنامه گسترده‌تر OpenAI برای ایمن‌تر کردن ChatGPT در تعامل با کاربران آسیب‌پذیر است. بر اساس گزارش این شرکت، در تازه‌ترین پژوهش‌ها و به‌روزرسانی‌ها، بیش از ۱۷۰ متخصص سلامت روان و کارشناسان بالینی در فرایند ارزیابی و بهبود رفتار مدل شرکت داشته‌اند.

این متخصصان تأیید کرده‌اند که نسخه جدید ChatGPT در برخورد با موضوعات حساس مانند خودآسیب‌رسانی یا اختلالات عاطفی، پاسخ‌هایی متعادل‌تر و پایدارتر ارائه می‌دهد و از نسخه‌های پیشین عملکرد بهتری دارد.

چالش رابطه میان هوش مصنوعی و سلامت روان

انتشار این داده‌ها پس از ماه‌ها بحث عمومی درباره اثر احتمالی چت‌بات‌ها بر سلامت روان کاربران صورت گرفته است. پژوهشگران بارها هشدار داده‌اند که سیستم‌های هوش مصنوعی ممکن است به‌طور ناخواسته وضعیت افراد آسیب‌پذیر را بدتر کنند، به‌ویژه زمانی که پاسخ‌های همدلانه بیش از حد یا تأییدکننده رفتارهای مخرب ارائه می‌دهند.

مطالعات پیشین نشان داده بود که چت‌بات‌ها اغلب تمایل به همراهی بیش از حد با کاربر دارند و ممکن است حتی تفکرات غیرمنطقی یا خطرناک او را تأیید کنند. این مسئله در برخی موارد می‌تواند کاربران را به سمت چرخه‌های فکری خودتخریبی سوق دهد.

در یکی از نمونه‌های جنجالی، والدین یک نوجوان ۱۶ ساله از OpenAI شکایت کرده‌اند. این نوجوان پیش از خودکشی با ChatGPT درباره افکارش صحبت کرده بود. این پرونده توجه ملی را جلب کرده و دادستان‌های ایالت‌های کالیفرنیا و دلاور نیز از OpenAI خواسته‌اند برای محافظت از کاربران کم‌سن اقدامات جدی‌تری انجام دهد.

در پاسخ به این نگرانی‌ها، سم آلتمن مدیرعامل OpenAI در پلتفرم ایکس اعلام کرد که شرکت در کاهش خطرات مرتبط با سلامت روان کاربران پیشرفت چشمگیری داشته است. بر اساس داده‌های جدید، مدل جی‌پی‌تی ۵ اکنون در ۶۵ درصد موارد بیش از نسخه پیشین پاسخ‌های مطلوب‌تری ارائه می‌دهد.

در آزمون‌های داخلی مرتبط با مکالمات حاوی نشانه‌های خودکشی، نرخ انطباق رفتاری مدل با استانداردهای مطلوب شرکت به ۹۱ درصد رسیده است، در حالی که این رقم در نسخه قبلی ۷۷ درصد بود.

OpenAI همچنین تأکید کرده است که مدل جدید ثبات رفتاری بیشتری در مکالمات طولانی دارد؛ مشکلی که در نسخه‌های قدیمی‌تر بارها گزارش شده بود.

افزایش نظارت و کنترل والدین

همزمان با ارتقای مدل، OpenAI چارچوب‌های جدیدی برای ارزیابی خطرات روانی معرفی کرده است. از این پس، آزمون‌های ایمنی پایه‌ای برای مدل‌های آینده شامل شاخص‌هایی ویژه برای سنجش وابستگی عاطفی، خطر خودآسیب‌رسانی و بحران‌های روانی غیراقدامی خواهد بود.

این شرکت همچنین از توسعه سیستم پیش‌بینی سن کاربر خبر داده است تا در صورت شناسایی کاربر خردسال، محدودیت‌ها و فیلترهای ایمنی سخت‌گیرانه‌تری اعمال شود.

با وجود این تلاش‌ها، OpenAI اذعان کرده که هنوز پاسخ قطعی برای حل مشکلات پایدار سلامت روان کاربران ندارد. نسخه‌های قدیمی‌تر مانند جی‌پی‌تی ۴‌او همچنان در دسترس میلیون‌ها کاربر هستند و از نظر ایمنی روانی در سطح پایین‌تری قرار دارند.

این داده‌ها بار دیگر پرسش‌های اخلاقی بزرگی را مطرح کرده است: چه نقشی باید برای هوش مصنوعی در تعامل با انسان‌های درگیر بحران روانی قائل شد؟ اگرچه OpenAI تأکید دارد که ChatGPT جایگزین مشاوره حرفه‌ای نیست، اما واقعیت این است که میلیون‌ها نفر برای آرامش، مشاوره یا حتی احساس همدلی به هوش مصنوعی روی آورده‌اند.

OpenAI در پایان بیانیه خود اطلاعاتی برای کمک فوری در اختیار کاربران قرار داده است. در ایالات متحده، افراد در معرض خطر می‌توانند با شماره ۹۸۸ تماس بگیرند یا از خط پیامکی Crisis Text Line استفاده کنند. همچنین، کاربران در سایر کشورها می‌توانند از طریق انجمن بین‌المللی پیشگیری از خودکشی (IASP) به فهرست منابع و خطوط کمک محلی دسترسی پیدا کنند.

انتشار این گزارش نشان می‌دهد که در کنار دستاوردهای عظیم هوش مصنوعی، چالش‌های انسانی و عاطفی نیز در حال رشد هستند. اکنون پرسش اصلی این است که آیا فناوری می‌تواند در عین پیشرفت، از انسانیت نیز محافظت کند یا نه.

برچسب ها: ChatGPT ، خودکشی ، OpenAI
ارسال به دوستان
ورود کد امنیتی
captcha
افزایش اعتماد به نفس کودکان در طبیعت نهفته است؟ ۴ کاربرد جالب حالت پرواز در گوشی‌های هوشمند که شاید ندانید پرواز نوستالژیک ایران‌ایر در دهه ۵۰؛ خاطره‌ای از سفر دانش آموزی به پاریس! (عکس) اظهارات جنجالی ترامپ در ژاپن:آمریکا الان با اختلاف زیاد جذاب‌ترین کشور دنیاست/ دولت قبلی اصلا بلد نبود کشور را مدیریت کند/ کار بزرگی کردیم و مرزها را بستیم(فیلم) شاخص جهانی صلح / کدام کشورها درگیر جنگ و ناامنی کمتری هستند؟ (+اینفوگرافی) استایل جهانی مردان در پاییز امسال چگونه است؛ ترند جدیدی که از روستا شروع شد/ دیوید بکهام رهبر این مد است!(+عکس لباس‌ها) کشورهای دارای بیشترین جایزه نوبل تا سال ۲۰۲۵ آلودگی هوا، مدارس ۴ شهر خوزستان را به تعطیلی کشاند تفاهم ایران و افغانستان درباره انتقال زندانیان مدیرعامل اسبق استقلال درگذشت هشدار جدی نسبت به کاهش سن مصرف الکل در کشور قاتل «شینزو آبه» به جرم خود اقرار کرد حماس: همچنان به توافق آتش‌بس پایبندیم اولین واکنش پژمان جمشیدی به ادعاهای شاکی پرونده‌اش بعد از خروج از کشور: قسم به دانه های خاک مادرم همه اش ساختگی و دروغ است قتل پدربزرگ فداکار توسط پرستار بچه پیچ گوشتی به دست در آمریکا