۱۴ ارديبهشت ۱۴۰۴
به روز شده در: ۱۴ ارديبهشت ۱۴۰۴ - ۰۸:۵۳
فیلم بیشتر »»
کد خبر ۸۷۴۲۶۷
تاریخ انتشار: ۱۱:۰۱ - ۲۵-۱۰-۱۴۰۱
کد ۸۷۴۲۶۷
انتشار: ۱۱:۰۱ - ۲۵-۱۰-۱۴۰۱

هوش مصنوعی دانشمندان را فریب داد/ پیشرفت ترسناک فناوری

هوش مصنوعی دانشمندان را فریب داد/ پیشرفت ترسناک فناوری
این ابزار ۵۰ مقاله تحقیقاتی پزشکی تولید کرد و این مقالات از آزمایش بررسی سرقت ادبی هم با رتبه اصالت ۱۰۰ درصدی سربلند بیرون آمدند به این معنی که هیچ نوعی از سرقت ادبی مشخص نشد.
یک «بات گفتگو» (chatbot) هوش مصنوعی می‌تواند چکیده مقالات علمی را با چنان اقناع کنندگی بنویسد که دانشمندان اغلب قادر به تشخیص آنها نیستند. محققان نظرات متفاوتی درباره تاثیر این مساله برای آینده علم دارند.
 
به گزارش ایرنا، بات گفتگوی موسوم به «چت جی پی تی» (ChatGPT) در پاسخ به فرمان های کاربران، متن های واقعی نما و هوشمندانه ای تولید می کند. این یک «مدل زبانی بزرگ» است که سیستمی مبتنی بر شبکه های عصبی است که با وارد کردن و تجزیه و تحلیل حجم عظیمی از متون تولید شده توسط انسان، روش انجام یک وظیفه را یاد می گیرد. شرکت نرم افزاری (OpenAI) که مقر آن در سانفرانسیسکو کالیفرنیا است این ابزار را روز ۳۰ نوامبر در دسترس قرار داد و استفاده از این ابزار رایگان است.
 
از زمان در دسترس قرار گرفتن این ابزار، محققان درگیر مسائل اخلاقی مرتبط با استفاده از آن بوده اند زیرا بخش زیادی از خروجی این ابزار قابل تشخیص از متون تولیدی انسان نیست. اکنون گروهی به رهبری «کاترین گائو» از دانشگاه شمال غربی در شیکاگو از «چت جی پی تی» برای تولید چکیده های مقالات تحقیقاتی استفاده کرده اند تا ببینند آیا دانشمندان قادر به تشخیص آنها هستند.
 
این ابزار ۵۰ مقاله تحقیقاتی پزشکی تولید کرد و این مقالات از آزمایش بررسی سرقت ادبی هم با رتبه اصالت ۱۰۰ درصدی سربلند بیرون آمدند به این معنی که هیچ نوعی از سرقت ادبی مشخص نشد.
 
گائو و همکاران در گزارشی خاطرنشان کردند: چت جی بی تی چکیده های علمی قابل باوری را می نویسد و این در حالی است که هنوز مرزهای بین کاربرد اخلاقی و قابل قبول مدل های زبانی بزرگ برای کمک به نوشته های علمی مشخص نشده است.
 
از سوی دیگر، «ساندرا واچر» محقق حوزه فناوری و مقررات حرفه ای حوزه فناوری در دانشگاه آکسفورد می گوید: من بسیار نگران هستم؛ اگر ما الان در شرایطی هستیم که کارشناسان قادر به تشخیص این مساله نیستند که چه (مقاله ای) حقیقی یا غیرحقیقی است، افراد واسط برای راهنمایی از میان موضوعات پیچیده را از دست خواهیم داد.
 
واچر خاطرنشان کرد: اگر دانشمندان قادر به تعیین این نباشند که آیا یک تحقیق حقیقت دارد یا خیر، پیامدهایی برای جامعه وجود خواهد داشت زیرا تحقیقات علمی نقش بزرگی در جامعه ایفا می کند. مثلا ممکن است به این معنی باشد که تصمیمات سیاستی (policy decisions) ناشی از تحقیقات، ناصحیح هستند.
 
اما «آرویند نارایانان» دانشمند رایانه در دانشگاه «پرینستون» در نیوجرسی می گوید: نامحتمل است که دانشمندی از چت جی پی تی برای تولید چکیده مقاله استفاده کند. وی افزود: این مساله که آیا چکیده های تولیدی قابل شناسایی هستند یا نه مساله «بی ربطی» است. مساله این است که آیا این ابزار می تواند چکیده ای تولید کند که صحیح و متقاعدکننده باشد. در واقع نمی تواند و بنابراین جنبه مثبت استفاده از چت جی پی تی بسیار کم و جنبه منفی آن قابل ملاحظه است.
ارسال به دوستان
کشف جهانی از ابَرزمین‌های ناشناخته تصاویر هوایی جدید، پیشرفت شهر آینده‌نگرانه لاین در عربستان را نشان می‌دهند قبل و بعد خانه روزنامه نگاران شهر در قلب تهران! (+تصاویر) بعد از ۳۰ سالگی چه بخوریم جوان بمانیم؟ دل‌نگرانی برای طاق بستان/ احداث تله کابین یا ثبت جهانی؟ ایرباس‌های عراق از راه رسیدند آیا طوفان خبر از زلزله می‌دهد؟ بیل توماس چیتا؛ شاسی این خودرو با گچ روی زمین کشیده شد! (+عکس) چه کسانی در آمریکا و ایران لای چرخ مذاکرات چوب می گذارند؟ مخالفت فرانسه از کجا آب می خورد؟ اسکایتانیک؛ بزرگترین هواپیمای جهان که ۱۲ برابر بویینگ ۷۴۷ گنجایش دارد(+عکس) گران‌ ترین پورشه‌ های تاریخ با یک نقطه اشتراک(+عکس) امروز با سعدی: جان دادن عاشقان، نجات است مهاجرت خاموش: چگونه ایران به صادرکننده برنامه‌نویس تبدیل شد هک بزرگ تاریخ؛ ۳۳۰ میلیون دلار بیت کوین بالا کشیده شد! / چطور سارقین به کیف پول قربانی دست پیدا کردند؟ علت احساس سرمای مداوم در بدن چیست؟