۲۶ خرداد ۱۴۰۴
به روز شده در: ۲۶ خرداد ۱۴۰۴ - ۰۷:۳۴
فیلم بیشتر »»
کد خبر ۱۰۴۸۱۲۹
تاریخ انتشار: ۱۱:۰۵ - ۱۳-۰۱-۱۴۰۴
کد ۱۰۴۸۱۲۹
انتشار: ۱۱:۰۵ - ۱۳-۰۱-۱۴۰۴

مراقب باشید: «چت‌ جی‌ پی‌ تی» حالا می‌تواند رسیدهای جعلی بسازد؛ به سادگی آب خوردن

مراقب باشید: «چت‌ جی‌ پی‌ تی» حالا می‌تواند رسیدهای جعلی بسازد؛ به سادگی آب خوردن
این سؤال مطرح است که چرا چت‌ جی‌ پی‌ تی (ChatGPT) اساساً امکان ساخت رسیدهای جعلی را فراهم می‌کند و آیا این قابلیت جدید تولید تصویر با سیاست‌های استفاده OpenAI، که صراحتاً کلاهبرداری را ممنوع کرده است، تناقض دارد یا خیر؟

دیجیاتو در گزارشی به نگرانی‌ها درباره سوءاستفاده از فناوری چت‌جی‌پی‌تی برای تولید رسید جعلی پرداخت  و نوشت: 

اخیراً چت‌جی‌پی‌تی یک قابلیت تولید تصویر جدید را به‌عنوان بخشی از مدل 4o معرفی کرده است که در تولید متن داخل تصاویر بسیار خوب عمل می‌کند و می‌تواند رسیدهای جعلی طبیعی بسازد. افراد مختلف از این قابلیت برای ایجاد رسیدهای جعلی رستوران استفاده می‌کنند که می‌تواند ابزاری دیگر به مجموعه گسترده فناوری‌های دیپ‌فیک هوش مصنوعی اضافه کند که توسط کلاهبرداران به کار می‌رود.

«دیدی داس»، سرمایه‌گذار و کاربر فعال شبکه‌های اجتماعی، در شبکه اجتماعی ایکس، تصویری از یک رسید جعلی مربوط به یک استیک‌هاوس واقعی در سان‌فرانسیسکو منتشر کرد که به گفته او، با مدل 4o ایجاد شده است.

کاربران دیگر نیز موفق به بازتولید نتایج مشابه شدند، از جمله رسیدهایی که لکه‌های غذا یا نوشیدنی داشتند تا واقعی‌تر به نظر برسند.

تولید رسیدهای جعلی با استفاده از ChatGPT
تولید رسید جعلی با استفاده از ChatGPT

در فرانسه، یک کاربر در لینکدین تصویری از یک رسید جعلی چروک‌دار منتشر کرد که با هوش مصنوعی برای یک رستوران زنجیره‌ای ایجاد شده بود که بسیار طبیعی به نظر می‌رسد.

افشای تولید رسید جعلی با استفاده از ChatGPT
افشای تولید رسید جعلی با استفاده از ChatGPT

کاملاً واضح است که امکان ایجاد رسیدهای جعلی به‌سادگی، فرصت‌های بزرگی را برای کلاهبرداری فراهم می‌کند. تصور استفاده از این فناوری توسط افراد سودجو برای دریافت بازپرداخت هزینه‌های جعلی چندان دشوار نیست.

به گفته «تایا کریستینسون»، سخنگوی OpenAI، تمامی تصاویری که توسط چت‌جی‌پی‌تی ایجاد می‌شوند، شامل متادیتایی هستند که نشان می‌دهد این تصاویر با استفاده از این ابزار ساخته شده‌اند. او تأکید کرد که اوپن‌ای‌آی در صورت مشاهده نقض سیاست‌های استفاده از سوی کاربران، اقدامات لازم را انجام می‌دهد و همواره از بازخوردها و موارد استفاده واقعی برای بهبود عملکرد و افزایش امنیت مدل‌های خود بهره می‌برد.

افشای تولید رسید جعلی با استفاده از ChatGPT

افشای تولید رسید جعلی با استفاده از ChatGPT

بااین‌حال، این سؤال مطرح است که چرا ChatGPT اساساً امکان ساخت رسیدهای جعلی را فراهم می‌کند و آیا این قابلیت با سیاست‌های استفاده OpenAI، که صراحتاً کلاهبرداری را ممنوع کرده است، تناقض دارد یا خیر.

کریستینسون می‌گوید هدف اوپن‌ای‌آی ارائه بیشترین میزان آزادی خلاقانه به کاربران است. او همچنین اشاره کرد که رسیدهای جعلی ساخته‌شده با هوش مصنوعی لزوماً برای مقاصد متقلبانه استفاده نمی‌شوند، بلکه می‌توانند در زمینه‌های مختلفی مانند آموزش سواد مالی، خلق آثار هنری اوریجینال، طراحی تبلیغات و سایر کاربردهای خلاقانه مورد استفاده قرار گیرند.

گزارش: مهدی فروغی

ارسال به دوستان
وقتی مذاکرات صلح به جنگ بدل شد: نمونه‌های تاریخی مهم از آغاز جنگ هنگام گفتگو تصویر سورئالیستی از بدرقه خیر زنان عراقی برای عبور دسته موشکها از آسمان عراق (فیلم) تحقیق جدید: الگوی تنفس می‌تواند هویت، خلق‌وخو و وضعیت سلامت شما را فاش کند ۲۲۴ شهید در ۶۵ ساعت تجاوز رژیم صهیونیستی به کشور وزیر دفاع پاکستان: حمایت غرب از اسرائیل عواقب فاجعه‌باری خواهد داشت چرا موشک‌های TOW دارای یک سیم در انتهای خود هستند؟ اطلاعیه شماره ۶ سپاه درباره عملیات وعده صادق۳؛ اصابت موفق حداکثری موشک‌ها به اهداف در سرزمین‌های اشغالی وقتی استخوان‌هـا پوک می‌شوند! ببینید موشک های ایران چه حجمی از تخریب را در اسرائیل ایجاد کردند چه میوه‌هایی قند خون را پایین می‌آورند؟ | لیست بهترین میوه‌ها برای دیابتی‌ها آیا واقعاً می‌توان درهای هواپیما را هنگام پرواز باز کرد؟ آمریکا و حمله اسرائیل به ایران ترامپ: امیدوارم ایران و اسرائیل آتش‌بس کنند! / از اسرائیل در برابر حملات موشکی ایران حمایت می کنیم سیاه‌چاله‌های گمشده جهان پیدا شدند تحلیل خبرنگار نظامی اسرائیلی: ایران هنوز موشک های یک تُنی اش را رو نکرده ؛ باید به دنبال پایان سیاسی جنگ باشیم