۱۳ آبان ۱۴۰۴
به روز شده در: ۱۳ آبان ۱۴۰۴ - ۲۰:۲۴
فیلم بیشتر »»
کد خبر ۱۰۴۸۱۲۹
تاریخ انتشار: ۱۱:۰۵ - ۱۳-۰۱-۱۴۰۴
کد ۱۰۴۸۱۲۹
انتشار: ۱۱:۰۵ - ۱۳-۰۱-۱۴۰۴

مراقب باشید: «چت‌ جی‌ پی‌ تی» حالا می‌تواند رسیدهای جعلی بسازد؛ به سادگی آب خوردن

مراقب باشید: «چت‌ جی‌ پی‌ تی» حالا می‌تواند رسیدهای جعلی بسازد؛ به سادگی آب خوردن
این سؤال مطرح است که چرا چت‌ جی‌ پی‌ تی (ChatGPT) اساساً امکان ساخت رسیدهای جعلی را فراهم می‌کند و آیا این قابلیت جدید تولید تصویر با سیاست‌های استفاده OpenAI، که صراحتاً کلاهبرداری را ممنوع کرده است، تناقض دارد یا خیر؟

دیجیاتو در گزارشی به نگرانی‌ها درباره سوءاستفاده از فناوری چت‌جی‌پی‌تی برای تولید رسید جعلی پرداخت  و نوشت: 

اخیراً چت‌جی‌پی‌تی یک قابلیت تولید تصویر جدید را به‌عنوان بخشی از مدل 4o معرفی کرده است که در تولید متن داخل تصاویر بسیار خوب عمل می‌کند و می‌تواند رسیدهای جعلی طبیعی بسازد. افراد مختلف از این قابلیت برای ایجاد رسیدهای جعلی رستوران استفاده می‌کنند که می‌تواند ابزاری دیگر به مجموعه گسترده فناوری‌های دیپ‌فیک هوش مصنوعی اضافه کند که توسط کلاهبرداران به کار می‌رود.

«دیدی داس»، سرمایه‌گذار و کاربر فعال شبکه‌های اجتماعی، در شبکه اجتماعی ایکس، تصویری از یک رسید جعلی مربوط به یک استیک‌هاوس واقعی در سان‌فرانسیسکو منتشر کرد که به گفته او، با مدل 4o ایجاد شده است.

کاربران دیگر نیز موفق به بازتولید نتایج مشابه شدند، از جمله رسیدهایی که لکه‌های غذا یا نوشیدنی داشتند تا واقعی‌تر به نظر برسند.

تولید رسیدهای جعلی با استفاده از ChatGPT
تولید رسید جعلی با استفاده از ChatGPT

در فرانسه، یک کاربر در لینکدین تصویری از یک رسید جعلی چروک‌دار منتشر کرد که با هوش مصنوعی برای یک رستوران زنجیره‌ای ایجاد شده بود که بسیار طبیعی به نظر می‌رسد.

افشای تولید رسید جعلی با استفاده از ChatGPT
افشای تولید رسید جعلی با استفاده از ChatGPT

کاملاً واضح است که امکان ایجاد رسیدهای جعلی به‌سادگی، فرصت‌های بزرگی را برای کلاهبرداری فراهم می‌کند. تصور استفاده از این فناوری توسط افراد سودجو برای دریافت بازپرداخت هزینه‌های جعلی چندان دشوار نیست.

به گفته «تایا کریستینسون»، سخنگوی OpenAI، تمامی تصاویری که توسط چت‌جی‌پی‌تی ایجاد می‌شوند، شامل متادیتایی هستند که نشان می‌دهد این تصاویر با استفاده از این ابزار ساخته شده‌اند. او تأکید کرد که اوپن‌ای‌آی در صورت مشاهده نقض سیاست‌های استفاده از سوی کاربران، اقدامات لازم را انجام می‌دهد و همواره از بازخوردها و موارد استفاده واقعی برای بهبود عملکرد و افزایش امنیت مدل‌های خود بهره می‌برد.

افشای تولید رسید جعلی با استفاده از ChatGPT

افشای تولید رسید جعلی با استفاده از ChatGPT

بااین‌حال، این سؤال مطرح است که چرا ChatGPT اساساً امکان ساخت رسیدهای جعلی را فراهم می‌کند و آیا این قابلیت با سیاست‌های استفاده OpenAI، که صراحتاً کلاهبرداری را ممنوع کرده است، تناقض دارد یا خیر.

کریستینسون می‌گوید هدف اوپن‌ای‌آی ارائه بیشترین میزان آزادی خلاقانه به کاربران است. او همچنین اشاره کرد که رسیدهای جعلی ساخته‌شده با هوش مصنوعی لزوماً برای مقاصد متقلبانه استفاده نمی‌شوند، بلکه می‌توانند در زمینه‌های مختلفی مانند آموزش سواد مالی، خلق آثار هنری اوریجینال، طراحی تبلیغات و سایر کاربردهای خلاقانه مورد استفاده قرار گیرند.

گزارش: مهدی فروغی

ارسال به دوستان
ورود کد امنیتی
captcha
معماری بی نظیر یک عبادتگاه در ژاپن/ اینجا همه چیز هست؛ از هنر تا آرامش (+فیلم و عکس) نبرد غول‌ها در اوج؛ ام‌باپه و هالند با ۱۳ گل در صدر جدول کفش طلا مساوی شدند پزشکیان: مساجد بهترین کانون برای ساماندهی امور اجتماعی هستند کیفیت جعبه و تجهیزات نوکیا N9(فیلم) صداوسیما شبکه تلویزیونی عبری‌ راه‌اندازی می‌کند مجموعه‌ای جذاب از گربه‌های سیاه؛ رونمایی از اسکچ جدید با زغال (تصویری) معماری کافه‌ «کوی»؛ تلفیق روح ژاپنی و چوب بازیافتی (+عکس) مذاکره ایران با قهرمان آفریقا؛ تقابل شاگردان قلعه‌نویی با الجزایر در راه است برانکو ایوانکوویچ: ایران وطن دوم من است؛ به زودی مثل یک جهانگرد باز خواهم گشت چرا همه درباره شمخانی و جمشیدی حرف می‌زنند؟ تی‌وی‌آر توسکان ۲؛ درباره یک خودرو کمیاب بریتانیایی(+تصاویر) داور فینال لیگ قهرمانان، قاضی دیدار حساس لیورپول و رئال مادرید شد ورود قوه قضائیه به تخلفات ثبت سفارش کالا/ محسنی اژه ای: گاهی کالا ثبت نمی شود و گاهی کالای ثبت سفارش شده را غیرقانونی به فروش می‌رسانند؛ باید پیگیری شود ۸ سال تحول در قلب آیفون؛ نگاهی به تکامل قطعات داخلی(عکس) محصص: قضاوت درباره پژمان جمشیدی زود است؛ کاش مسیر مربیگری را تغییر نمی‌داد