۲۲ بهمن ۱۴۰۴
به روز شده در: ۲۲ بهمن ۱۴۰۴ - ۰۴:۰۰
فیلم بیشتر »»
کد خبر ۱۰۴۸۱۲۹
تاریخ انتشار: ۱۱:۰۵ - ۱۳-۰۱-۱۴۰۴
کد ۱۰۴۸۱۲۹
انتشار: ۱۱:۰۵ - ۱۳-۰۱-۱۴۰۴

مراقب باشید: «چت‌ جی‌ پی‌ تی» حالا می‌تواند رسیدهای جعلی بسازد؛ به سادگی آب خوردن

مراقب باشید: «چت‌ جی‌ پی‌ تی» حالا می‌تواند رسیدهای جعلی بسازد؛ به سادگی آب خوردن
این سؤال مطرح است که چرا چت‌ جی‌ پی‌ تی (ChatGPT) اساساً امکان ساخت رسیدهای جعلی را فراهم می‌کند و آیا این قابلیت جدید تولید تصویر با سیاست‌های استفاده OpenAI، که صراحتاً کلاهبرداری را ممنوع کرده است، تناقض دارد یا خیر؟

دیجیاتو در گزارشی به نگرانی‌ها درباره سوءاستفاده از فناوری چت‌جی‌پی‌تی برای تولید رسید جعلی پرداخت  و نوشت: 

اخیراً چت‌جی‌پی‌تی یک قابلیت تولید تصویر جدید را به‌عنوان بخشی از مدل 4o معرفی کرده است که در تولید متن داخل تصاویر بسیار خوب عمل می‌کند و می‌تواند رسیدهای جعلی طبیعی بسازد. افراد مختلف از این قابلیت برای ایجاد رسیدهای جعلی رستوران استفاده می‌کنند که می‌تواند ابزاری دیگر به مجموعه گسترده فناوری‌های دیپ‌فیک هوش مصنوعی اضافه کند که توسط کلاهبرداران به کار می‌رود.

«دیدی داس»، سرمایه‌گذار و کاربر فعال شبکه‌های اجتماعی، در شبکه اجتماعی ایکس، تصویری از یک رسید جعلی مربوط به یک استیک‌هاوس واقعی در سان‌فرانسیسکو منتشر کرد که به گفته او، با مدل 4o ایجاد شده است.

کاربران دیگر نیز موفق به بازتولید نتایج مشابه شدند، از جمله رسیدهایی که لکه‌های غذا یا نوشیدنی داشتند تا واقعی‌تر به نظر برسند.

تولید رسیدهای جعلی با استفاده از ChatGPT
تولید رسید جعلی با استفاده از ChatGPT

در فرانسه، یک کاربر در لینکدین تصویری از یک رسید جعلی چروک‌دار منتشر کرد که با هوش مصنوعی برای یک رستوران زنجیره‌ای ایجاد شده بود که بسیار طبیعی به نظر می‌رسد.

افشای تولید رسید جعلی با استفاده از ChatGPT
افشای تولید رسید جعلی با استفاده از ChatGPT

کاملاً واضح است که امکان ایجاد رسیدهای جعلی به‌سادگی، فرصت‌های بزرگی را برای کلاهبرداری فراهم می‌کند. تصور استفاده از این فناوری توسط افراد سودجو برای دریافت بازپرداخت هزینه‌های جعلی چندان دشوار نیست.

به گفته «تایا کریستینسون»، سخنگوی OpenAI، تمامی تصاویری که توسط چت‌جی‌پی‌تی ایجاد می‌شوند، شامل متادیتایی هستند که نشان می‌دهد این تصاویر با استفاده از این ابزار ساخته شده‌اند. او تأکید کرد که اوپن‌ای‌آی در صورت مشاهده نقض سیاست‌های استفاده از سوی کاربران، اقدامات لازم را انجام می‌دهد و همواره از بازخوردها و موارد استفاده واقعی برای بهبود عملکرد و افزایش امنیت مدل‌های خود بهره می‌برد.

افشای تولید رسید جعلی با استفاده از ChatGPT

افشای تولید رسید جعلی با استفاده از ChatGPT

بااین‌حال، این سؤال مطرح است که چرا ChatGPT اساساً امکان ساخت رسیدهای جعلی را فراهم می‌کند و آیا این قابلیت با سیاست‌های استفاده OpenAI، که صراحتاً کلاهبرداری را ممنوع کرده است، تناقض دارد یا خیر.

کریستینسون می‌گوید هدف اوپن‌ای‌آی ارائه بیشترین میزان آزادی خلاقانه به کاربران است. او همچنین اشاره کرد که رسیدهای جعلی ساخته‌شده با هوش مصنوعی لزوماً برای مقاصد متقلبانه استفاده نمی‌شوند، بلکه می‌توانند در زمینه‌های مختلفی مانند آموزش سواد مالی، خلق آثار هنری اوریجینال، طراحی تبلیغات و سایر کاربردهای خلاقانه مورد استفاده قرار گیرند.

گزارش: مهدی فروغی

ارسال به دوستان
سالگرد پرواز هواپیمایی که دنیا را تکان داد(+عکس) قدیمی ترین ها در دنیا/ باستانی ترین کنکور بهاره رهنما: فردای نامزدی فهمیدم اشتباه کردم رازِ مدیریتی جف بزوس   خبر پیروزی انقلاب از رادیو را چه کسی اعلام کرد؟/ "اینجا تهران است، صدای راستین ملت ایران" یا "این صدای انقلاب اسلامی ایران است".... اولین جنگنده نسل ششمی جهان در چین به پرواز درآمد(+عکس) تنوع جشنواره 44ام/ از کافه و پتروشیمی تا بازی‌های متفاوت قاسم‌خانی و عطاران فیلسوف کمترشناخته‌شدۀ یونانی که نظریه‌ای شبیه «بیگ بنگ» داشت قطر: سفر لاریجانی به دوحه بخشی از روند مذاکرات تهران و واشنگتن است آمریکا موشک های پاتریوت خود در قطر را روی کامیون سوار کرد ایده «جهان مبهم هاتف» ۳ سال طول کشید/ اوج اتفاق فیلم از صفر شروع کردن است ۱۰ کشور برتر جهان در تولید پشم را بشناسید(اینفوگرافیک) ترامپ: این بار فرق می کند؛ می توانیم با ایران توافق کنیم/ احتمالا هفته آینده باز هم مذاکره خواهیم داشت پس لرزه های ربودن مادورو در کوبا: کمبود شدید سوخت و توقف کار اتوبوسرانی/ اخلال در پروازهای خارجی/ سهمیه بندی بنزین: هر نفر 20 لیتر با قیمت دلاری/ کاهش ساعات کاری بانک ها/ لغو برنامه های ورزشی و فرهنگی فرمانده کل ارتش: در آمادگی کامل هستیم