۲۶ بهمن ۱۴۰۴
به روز شده در: ۲۶ بهمن ۱۴۰۴ - ۰۶:۰۰
فیلم بیشتر »»
کد خبر ۱۱۲۲۱۲۴
تاریخ انتشار: ۱۳:۲۰ - ۱۹-۰۹-۱۴۰۴
کد ۱۱۲۲۱۲۴
انتشار: ۱۳:۲۰ - ۱۹-۰۹-۱۴۰۴

این مدل‌های هوش مصنوعی بیشترین آمار پاسخ غلط را دارند

این مدل‌های هوش مصنوعی بیشترین آمار پاسخ غلط را دارند
طبق گزارشی که اخیرا نیویورک‌تایمز منتشر کرده در جدول «نرخ هالوسینیشن» یا همان توهم، مدل‌هایی مانند گراک، دیپ سیک، جیمنای و برخی مدل‌های کمتر شناخته‌شده در فهرست بیشترین نرخ خطا و توهم هوش مصنوعی قرار دارند. شاید دیدن نام بعضی مدل‌ها و میزان خطای آن برای ما جای تعجب داشته باشد. اما این آمار از دل تحقیقات جدید دانشگاه کلمبیا بیرون آمده است.

مدل‌های هوش مصنوعی به‌سرعت در حال رشد و توسعه هستند. شرکت‌های فناوری هرکدام به شکلی سعی می‌کنند از این رقابت عقب نمانند. این مدل‌ها از مراقبت‌های بهداشتی و مالی گرفته تا سرگرمی و ارتباطات هوش مصنوعی برای عامه مردم تبدیل به محل اعتماد شده است.

به گزارش همشهری آنلاین، اگرچه این فناوری مزایای باورنکردنی دارد، اما خطرات جدی نیز به همراه دارد، به‌خصوص از جانب برخی از ابزارهای هوش مصنوعی که پتانسیل سوءاستفاده یا عواقب ناخواسته را دارند. ممکن است به سبب تبلیغات اعتماد ما به مدل‌های مطرح‌تر بیشتر باشد اما برخی از آنها بیشترین میزان پاسخ غلط را دارند.

 جای تعجب است که بسیاری از این فناوری‌های خطرناک همچنان در معرض توجه بحث‌های اصلی قرار دارند و افراد، سازمان‌ها و سیاستگذاران برای مقابله با آنها آماده نیستند. در این مطلب برخی از پراشتباه‌ترین مدل‌های هوش مصنوعی را بررسی خواهیم کرد.

شفافیت برای گمراه‌نشدن

پیشرفت‌های حاصل از مدل‌های زبان بزرگ در سال ۲۰۲۳، علاقه گسترده‌ای را به پتانسیل متحول‌کننده هوش مصنوعی نسل جدید تقریبا در هر صنعتی برانگیخت. ابزار ChatGPT از شرکت OpenAI در مرکز این افزایش علاقه قرار داشت، اما این فناوری هنوز راه درازی در پیش دارد تا بتواند به‌طور قابل اعتمادی بر اکثر فرایندها غلبه کند.

مثال برای چت جی‌پی‌تی که بیشترین استقبال را از طرف مردم زیاد و حتی بازگویی آن تکراری است. اما روشنگری و شفاف‌سازی‌ در این زمینه می‌تواند هم به ارتقای سطح الگوریتم این مدل‌ها و هم توجه بیشتر مردم در مسیر اعتماد بی‌چون و چرا به این فناوری کمک کند.

چه چیزی یک ابزار هوش مصنوعی را خطرناک می‌کند؟

احتمال سوءاستفاده: می‌توان از آن برای کلاهبرداری، نظارت یا دستکاری استفاده کرد.

عدم‌شفافیت: ممیزی یا کنترل این سیستم جعبه سیاه دشوار است.

تشدید تعصبات: کلیشه‌های مضر یا تبعیض را تقویت می‌کند.

تجاوز به حریم خصوصی: امکان دسترسی غیرمجاز یا سوءاستفاده از داده‌های شخصی را فراهم می‌کند.

خودمختاری در اقدامات مضر: می‌تواند بدون نظارت انسانی عمل کند و باعث آسیب شود.

کدام مدل هوش مصنوعی بیشترین پاسخ غلط را دارد؟

طبق گزارشی که اخیرا نیویورک‌تایمز منتشر کرده در جدول «نرخ هالوسینیشن» یا همان توهم، مدل‌هایی مانند گراک، دیپ سیک، جیمنای و برخی مدل‌های کمتر شناخته‌شده در فهرست بیشترین نرخ خطا و توهم هوش مصنوعی قرار دارند. شاید دیدن نام بعضی مدل‌ها و میزان خطای آن برای ما جای تعجب داشته باشد. اما این آمار از دل تحقیقات جدید دانشگاه کلمبیا بیرون آمده است.

گراک-۳: ۹۴درصد

گراک-۲: ۷۷درصد

جمینای: ۷۶درصد

دیپ‌سیک: ۶۸درصد

چت جی‌پی‌تی: ۶۷درصد

پرپلکسیتی پرو: ۴۵درصد

کوپایلوت: ۴۰درصد

پرپلکسیتی: ۳۷درصد

ارسال به دوستان
راهکار جدید دانشمند ایرانی، دیتاسنترهای هوش مصنوعی را خنک نگه می‌دارد ناو هواپیمابری که در برابر ۱۸ تن تی‌ان‌تی دوام آورد؛ پشت‌پرده‌ی قدرت جرالد آر فورد دشمنان پنهان سلامت؛ ۶ وسیله‌ای که فراموش می‌کنید تمیز کنید! بختیاری‌ها نیروی اصلی نادرشاه در فتح قندهار بودند تا چه اندازه می‌توان به یک ناو هواپیمابر نزدیک شد؟ برترین مقاصد سفر انفرادی جهان در ۲۰۲۶ چند لیتر خون در بدن انسان وجود دارد؟ اکسیوس: توافق نتانیاهو - ترامپ برای فشار حداکثری علیه ایران / نتانیاهو به ترامپ: کسب توافق خوب با ایران، غیرممکن است/ ویتکاف: توافق خوب با ایران اگر غیرممکن نباشد سخت است بازیگر مشهور: من کودک همسر یک مرد متعصب بودم واکنش سخنگوی کمیسیون امنیت ملی به اعزام ناو هواپیمابر آمریکا به منطقه؛ دستتان درد نکند! قبلاً یک هدف برای غرق کردن داشتیم الان ۲ تا تظاهرات هزاران نفر در تل‌آویو علیه نتانیاهو حمایت عراق از مذاکرات ایران و آمریکا  جمعیت و غذا؛ نظریۀ توماس مالتوس هنوز به کار می‌آید یا نه؟   رفع محدودیت ترافیکی در آزادراه تهران–شمال و محور چالوس افزایش ۳ میلیون تومانی حقوق معلمان تکذیب شد
نظرسنجی
پیش بینی شما از نتیجه مذاکرات ایران و آمریکا طی یک ماه آتی؟