۲۲ بهمن ۱۴۰۴
به روز شده در: ۲۲ بهمن ۱۴۰۴ - ۰۳:۳۰
فیلم بیشتر »»
کد خبر ۱۱۲۲۱۲۴
تاریخ انتشار: ۱۳:۲۰ - ۱۹-۰۹-۱۴۰۴
کد ۱۱۲۲۱۲۴
انتشار: ۱۳:۲۰ - ۱۹-۰۹-۱۴۰۴

این مدل‌های هوش مصنوعی بیشترین آمار پاسخ غلط را دارند

این مدل‌های هوش مصنوعی بیشترین آمار پاسخ غلط را دارند
طبق گزارشی که اخیرا نیویورک‌تایمز منتشر کرده در جدول «نرخ هالوسینیشن» یا همان توهم، مدل‌هایی مانند گراک، دیپ سیک، جیمنای و برخی مدل‌های کمتر شناخته‌شده در فهرست بیشترین نرخ خطا و توهم هوش مصنوعی قرار دارند. شاید دیدن نام بعضی مدل‌ها و میزان خطای آن برای ما جای تعجب داشته باشد. اما این آمار از دل تحقیقات جدید دانشگاه کلمبیا بیرون آمده است.

مدل‌های هوش مصنوعی به‌سرعت در حال رشد و توسعه هستند. شرکت‌های فناوری هرکدام به شکلی سعی می‌کنند از این رقابت عقب نمانند. این مدل‌ها از مراقبت‌های بهداشتی و مالی گرفته تا سرگرمی و ارتباطات هوش مصنوعی برای عامه مردم تبدیل به محل اعتماد شده است.

به گزارش همشهری آنلاین، اگرچه این فناوری مزایای باورنکردنی دارد، اما خطرات جدی نیز به همراه دارد، به‌خصوص از جانب برخی از ابزارهای هوش مصنوعی که پتانسیل سوءاستفاده یا عواقب ناخواسته را دارند. ممکن است به سبب تبلیغات اعتماد ما به مدل‌های مطرح‌تر بیشتر باشد اما برخی از آنها بیشترین میزان پاسخ غلط را دارند.

 جای تعجب است که بسیاری از این فناوری‌های خطرناک همچنان در معرض توجه بحث‌های اصلی قرار دارند و افراد، سازمان‌ها و سیاستگذاران برای مقابله با آنها آماده نیستند. در این مطلب برخی از پراشتباه‌ترین مدل‌های هوش مصنوعی را بررسی خواهیم کرد.

شفافیت برای گمراه‌نشدن

پیشرفت‌های حاصل از مدل‌های زبان بزرگ در سال ۲۰۲۳، علاقه گسترده‌ای را به پتانسیل متحول‌کننده هوش مصنوعی نسل جدید تقریبا در هر صنعتی برانگیخت. ابزار ChatGPT از شرکت OpenAI در مرکز این افزایش علاقه قرار داشت، اما این فناوری هنوز راه درازی در پیش دارد تا بتواند به‌طور قابل اعتمادی بر اکثر فرایندها غلبه کند.

مثال برای چت جی‌پی‌تی که بیشترین استقبال را از طرف مردم زیاد و حتی بازگویی آن تکراری است. اما روشنگری و شفاف‌سازی‌ در این زمینه می‌تواند هم به ارتقای سطح الگوریتم این مدل‌ها و هم توجه بیشتر مردم در مسیر اعتماد بی‌چون و چرا به این فناوری کمک کند.

چه چیزی یک ابزار هوش مصنوعی را خطرناک می‌کند؟

احتمال سوءاستفاده: می‌توان از آن برای کلاهبرداری، نظارت یا دستکاری استفاده کرد.

عدم‌شفافیت: ممیزی یا کنترل این سیستم جعبه سیاه دشوار است.

تشدید تعصبات: کلیشه‌های مضر یا تبعیض را تقویت می‌کند.

تجاوز به حریم خصوصی: امکان دسترسی غیرمجاز یا سوءاستفاده از داده‌های شخصی را فراهم می‌کند.

خودمختاری در اقدامات مضر: می‌تواند بدون نظارت انسانی عمل کند و باعث آسیب شود.

کدام مدل هوش مصنوعی بیشترین پاسخ غلط را دارد؟

طبق گزارشی که اخیرا نیویورک‌تایمز منتشر کرده در جدول «نرخ هالوسینیشن» یا همان توهم، مدل‌هایی مانند گراک، دیپ سیک، جیمنای و برخی مدل‌های کمتر شناخته‌شده در فهرست بیشترین نرخ خطا و توهم هوش مصنوعی قرار دارند. شاید دیدن نام بعضی مدل‌ها و میزان خطای آن برای ما جای تعجب داشته باشد. اما این آمار از دل تحقیقات جدید دانشگاه کلمبیا بیرون آمده است.

گراک-۳: ۹۴درصد

گراک-۲: ۷۷درصد

جمینای: ۷۶درصد

دیپ‌سیک: ۶۸درصد

چت جی‌پی‌تی: ۶۷درصد

پرپلکسیتی پرو: ۴۵درصد

کوپایلوت: ۴۰درصد

پرپلکسیتی: ۳۷درصد

ارسال به دوستان
سالگرد پرواز هواپیمایی که دنیا را تکان داد(+عکس) قدیمی ترین ها در دنیا/ باستانی ترین کنکور بهاره رهنما: فردای نامزدی فهمیدم اشتباه کردم رازِ مدیریتی جف بزوس   خبر پیروزی انقلاب از رادیو را چه کسی اعلام کرد؟/ "اینجا تهران است، صدای راستین ملت ایران" یا "این صدای انقلاب اسلامی ایران است".... اولین جنگنده نسل ششمی جهان در چین به پرواز درآمد(+عکس) تنوع جشنواره 44ام/ از کافه و پتروشیمی تا بازی‌های متفاوت قاسم‌خانی و عطاران فیلسوف کمترشناخته‌شدۀ یونانی که نظریه‌ای شبیه «بیگ بنگ» داشت قطر: سفر لاریجانی به دوحه بخشی از روند مذاکرات تهران و واشنگتن است آمریکا موشک های پاتریوت خود در قطر را روی کامیون سوار کرد ایده «جهان مبهم هاتف» ۳ سال طول کشید/ اوج اتفاق فیلم از صفر شروع کردن است ۱۰ کشور برتر جهان در تولید پشم را بشناسید(اینفوگرافیک) ترامپ: این بار فرق می کند؛ می توانیم با ایران توافق کنیم/ احتمالا هفته آینده باز هم مذاکره خواهیم داشت پس لرزه های ربودن مادورو در کوبا: کمبود شدید سوخت و توقف کار اتوبوسرانی/ اخلال در پروازهای خارجی/ سهمیه بندی بنزین: هر نفر 20 لیتر با قیمت دلاری/ کاهش ساعات کاری بانک ها/ لغو برنامه های ورزشی و فرهنگی فرمانده کل ارتش: در آمادگی کامل هستیم