امروز Tuesday 23 April 2024
هوش مصنوعی

متا فیک‌های تولید شده توسط هوش مصنوعی را سرکوب می‌کند

متا قصد دارد بر روی تقلب‌های ایجاد شده توسط هوش مصنوعی نظارت داشته باشد.
کد خبر: 306
زمان انتشار: 7 فوریه 2024 - 00:28 ق.ظ -
38 بازدید
فیک هوش مصنوعی

به گزارش شفق نیوز، بعضی از تصاویر ایجاد شده توسط هوش مصنوعی که آینده در فیس‌بوک، اینستاگرام و تردز منتشر می‌شوند، با برچسب فیک مشخص خواهند شد، اما فقط در صورتی که از ابزارهای شرکت‌هایی استفاده شده باشد که مایل به همکاری با متا هستند. مانند سایر شرکت‌های فناوری برتر، متا در سال گذشته قول داده بود به تسریع در استفاده از هوش مصنوعی تولیدی بپردازد. امروز اعلام کرد که باید به خطرات این فناوری نیز واکنش نشان دهد و سیاست گسترده‌تری را در خصوص برچسب‌گذاری تصاویر ایجاد شده توسط هوش مصنوعی در فیس‌بوک، اینستاگرام و تردز اعمال کند تا افراد را از مبتنی بودن تصاویر بر هوش مصنوعی آگاه کند.

چالش‌های کار

اما بسیاری از محتوای مصنوعی که احتمالاً در پلتفرم‌های متا ظاهر می‌شود، تحت پوشش این سیاست جدید قرار نخواهد گرفت، که منجر به وجود چندین فضای خالی می‌شود که به وسیله‌ی افراد بدخواه می‌توانند وارد شوند. این یک گام در جهت صحیح است، اما با چالش‌هایی روبرو است.

همچنین بخوانید: تاخیر خودرو اپل

متا از قبل تصاویر ایجاد شده توسط ابزارهای هوش مصنوعی تولیدی خود را با برچسب “ایجاد شده با استفاده از هوش مصنوعی” مشخص می‌کند. اکنون متا می‌گوید که در ماه‌های آینده نیز تصاویر ایجاد شده توسط ابزارهای هوش مصنوعی ارائه شده توسط شرکت‌های دیگری که نشان‌ها را در فناوری خود جاسازی می‌کنند، را نیز با برچسب‌های خود مشخص خواهد کرد.

کاهش فیک نیوز

این سیاست قرار است خطر انتشار اطلاعات فیک یا اشتباهی با استفاده از تصاویر ایجاد شده توسط هوش مصنوعی و تبدیل آنها به عکس‌های واقعی را کاهش دهد. اما هرچند متا اعلام کرده که در حال کار برای پشتیبانی از فناوری افشای اطلاعات در حال توسعه در گوگل، اوپن‌ای‌آی، مایکروسافت، ادوبی، میدجرنی و شاتراستاک است، اما این فناوری هنوز به طور گسترده مورد استفاده قرار نگرفته است.

حتی اگر حمایت گسترده‌ای برای نشان‌گذاری وجود داشته باشد، هنوز مشخص نیست چقدر هر حفاظتی که ارائه می‌دهد، قوی خواهد بود. هیچ استانداردی که به طور یکپارچه پیاده شده باشد وجود ندارد. در یک مطالعه منتشر شده در سال گذشته، محققان فهمیدند که می‌توانند به آسانی نشان‌های فیک را شکست دهند یا آنها را به تصاویری اضافه کنند که توسط هوش مصنوعی تولید نشده‌اند تا به نظر برسد که آنها ایجاد شده‌اند.

هرچند که شرکت‌ها شروع به ارائه نشانه‌ها در تولید کننده‌های تصویر خود کرده‌اند، اما هنوز شروع به ارائه آنها در ابزارهای هوش مصنوعی که به همان اندازه صدا و ویدیو تولید می‌کنند، نکرده‌اند، بنابراین ما هنوز نمی‌توانیم این نشانه‌ها را شناسایی کرده و این محتوا را از شرکت‌های دیگر معرفی کنیم.

نوشته شده توسط:

اشتراک گذاری

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *