آیا رمزنگاری C2PA می تواند کلید مبارزه با اطلاعات نادرست مبتنی بر هوش مصنوعی باشد؟
با مجله هشت پیک با مقاله ی آیا رمزنگاری C2PA می تواند کلید مبارزه با اطلاعات نادرست مبتنی بر هوش مصنوعی باشد؟ همراه ما باشید
Adobe، Arm، Intel، Microsoft و Truepic وزنه ی خود را پشت سر C2PA، جایگزینی برای واترمارک کردن محتوای تولید شده توسط هوش مصنوعی قرار دادند.
با تکثیر هوش مصنوعی مولد در فضای نرم افزاری سازمانی، استانداردهایی همچنان در سطوح دولتی و سازمانی برای نحوه استفاده از آن ایجاد می شود. یکی از این استانداردها گواهینامه تولید کننده محتوای هوش مصنوعی است که به نام C2PA شناخته می شود.
C2PA دو سال است که وجود دارد، اما اخیراً با رایجتر شدن هوش مصنوعی مولد مورد توجه قرار گرفته است. عضویت در سازمان پشتیبان C2PA در شش ماه گذشته دو برابر شده است.
C2PA چیست؟
مشخصات C2PA یک پروتکل اینترنت منبع باز است که نحوه افزودن بیانیه های منشأ، که به عنوان ادعاها نیز شناخته می شود، به یک قطعه محتوا را تشریح می کند. گزارههای منشأ ممکن است بهعنوان دکمههایی ظاهر شوند که بینندگان میتوانند روی دکمهها کلیک کنند تا ببینند آیا قطعه رسانه به طور جزئی یا کامل با هوش مصنوعی ایجاد شده است.
به عبارت ساده، دادههای منشأ به صورت رمزنگاری به قطعه رسانه متصل میشوند، به این معنی که هرگونه تغییر در یکی از آنها به الگوریتمی هشدار میدهد که رسانه دیگر نمیتواند احراز هویت شود. با مطالعه مشخصات فنی C2PA می توانید در مورد نحوه عملکرد این رمزنگاری اطلاعات بیشتری کسب کنید.
این پروتکل توسط Coalition for Content Provenance and Authenticity که با نام C2PA نیز شناخته می شود ایجاد شده است. Adobe، Arm، Intel، Microsoft و Truepic همگی از C2PA پشتیبانی میکنند که پروژهای مشترک است که Content Authenticity Initiative و Project Origin را گرد هم میآورد.
Content Authenticity Initiative سازمانی است که توسط Adobe برای تشویق ارائه اطلاعات منشأ و زمینه برای رسانه های دیجیتال تاسیس شده است. Project Origin که توسط مایکروسافت و بیبیسی ایجاد شده است، یک رویکرد استاندارد شده برای فناوری منشأ دیجیتالی است تا مطمئن شود اطلاعات – بهویژه رسانههای خبری – دارای منبع قابل اثبات هستند و دستکاری نشدهاند.
هدف گروههایی که C2PA را تشکیل میدهند، متوقف کردن اطلاعات نادرست، به ویژه محتوای تولید شده توسط هوش مصنوعی است که ممکن است با عکسها و ویدیوهای معتبر اشتباه گرفته شود.
چگونه می توان محتوای هوش مصنوعی را علامت گذاری کرد؟
در ژوئیه 2023، دولت ایالات متحده و شرکتهای برجسته هوش مصنوعی توافقنامهای داوطلبانه برای افشای زمان ایجاد محتوا توسط هوش مصنوعی مولد منتشر کردند. استاندارد C2PA یکی از راه های ممکن برای برآوردن این نیاز است. واترمارک و تشخیص هوش مصنوعی دو روش متمایز دیگر هستند که می توانند تصاویر تولید شده توسط رایانه را علامت گذاری کنند. در ژانویه 2023، OpenAI طبقهبندیکننده هوش مصنوعی خود را برای این منظور معرفی کرد، اما سپس آن را در ژوئیه تعطیل کرد.
در همین حال، گوگل در تلاش است تا خدمات واترمارکینگ را در کنار هوش مصنوعی خود ارائه دهد. به گفته غول فناوری در می 2023، PaLM 2 LLM که در Google Cloud میزبانی شده است، میتواند تصاویر تولید شده توسط ماشین را برچسبگذاری کند.
ببینید: مراکز تماس مبتنی بر ابر در موج محبوبیت هوش مصنوعی مولد هستند. (TechRepublic)
در حال حاضر تعداد انگشت شماری از محصولات تشخیص هوش مصنوعی مولد در بازار وجود دارد. بسیاری از آنها، مانند آشکارساز GPT Writfull، توسط سازمانهایی ایجاد میشوند که ابزارهای نوشتن هوش مصنوعی مولد را نیز در دسترس قرار میدهند. آنها مشابه روشی که خود هوش مصنوعی انجام می دهند کار می کنند. GPTZero، که خود را به عنوان یک آشکارساز محتوای هوش مصنوعی برای آموزش تبلیغ میکند، به عنوان یک «طبقهبندی» توصیف میشود که از همان الگوی تشخیص الگوی مدلهای ترانسفورماتور از پیش آموزشدیده مولد استفاده میکند.
اهمیت واترمارک برای جلوگیری از استفاده مخرب هوش مصنوعی
رهبران کسب و کار باید کارمندان خود را تشویق کنند که به دنبال محتوای تولید شده توسط هوش مصنوعی باشند – که ممکن است به این عنوان برچسب زده شود یا نباشد – به منظور تشویق اسناد مناسب و اطلاعات قابل اعتماد. همچنین مهم است که محتوای تولید شده توسط هوش مصنوعی که در سازمان ایجاد شده است به این عنوان برچسب زده شود.
دکتر الساندرا سالا، مدیر ارشد هوش مصنوعی و علوم داده در Shutterstock، در یک بیانیه مطبوعاتی گفت: “پیوستن به CAI و پذیرش استاندارد زیربنایی C2PA یک گام طبیعی در تلاش مداوم ما برای محافظت از جامعه هنرمندان و کاربرانمان با حمایت است. توسعه سیستمها و زیرساختهایی که شفافیت بیشتری ایجاد میکنند و به کاربران ما کمک میکنند تا به آسانی آنچه را که یک هنرمند خلق میکند در مقابل هنر تولید شده یا اصلاحشده توسط هوش مصنوعی شناسایی کنند.»
و همه چیز به این برمی گردد که مطمئن شویم مردم از این فناوری برای انتشار اطلاعات نادرست استفاده نمی کنند.
اندی پارسونز، مدیر ارشد Content Authenticity Initiative در ادوبی، گفت: «همانطور که این فناوری به طور گسترده پیادهسازی میشود، مردم انتظار دارند اطلاعات اعتبار محتوا به بیشتر محتوایی که آنلاین میبینند متصل شود. “به این ترتیب، اگر تصویری اطلاعات اعتبار محتوا را به آن ضمیمه نکرده باشد، ممکن است در تصمیم گیری در مورد اعتماد و اشتراک گذاری آن، بررسی دقیق بیشتری را اعمال کنید.”
انتساب محتوا همچنین به هنرمندان کمک می کند تا مالکیت آثار خود را حفظ کنند
برای کسبوکارها، شناسایی محتوای تولید شده توسط هوش مصنوعی و علامتگذاری محتوای خود در صورت لزوم میتواند اعتماد را افزایش داده و از توزیع نادرست جلوگیری کند. سرقت ادبی، به هر حال، هر دو طرف را دنبال می کند. هنرمندان و نویسندگانی که از هوش مصنوعی مولد برای سرقت ادبی استفاده می کنند باید شناسایی شوند. در عین حال، هنرمندان و نویسندگانی که آثار اصلی را تولید میکنند، باید اطمینان حاصل کنند که اثر در پروژهای که توسط هوش مصنوعی دیگران ایجاد میشود، ظاهر نمیشود.
برای تیمهای طراحی گرافیک و هنرمندان مستقل، Adobe در حال کار بر روی برچسب Do Not Train در پنلهای منشأ محتوای خود در فتوشاپ و محتوای Adobe Firefly است تا مطمئن شود از هنر اصلی برای آموزش هوش مصنوعی استفاده نمیشود.
امیدواریم از این مقاله مجله هشت پیک نیز استفاده لازم را کرده باشید و در صورت تمایل آنرا با دوستان خود به اشتراک بگذارید و با امتیاز از قسمت پایین و درج نظرات باعث دلگرمی مجموعه مجله 8pic باشید
لینک کوتاه مقاله : https://5ia.ir/ohcZIC
کوتاه کننده لینک
کد QR :
آخرین دیدگاهها