آیا رمزنگاری C2PA می تواند کلید مبارزه با اطلاعات نادرست مبتنی بر هوش مصنوعی باشد؟

زمان مطالعه: 4 دقیقه

با مجله هشت پیک با مقاله ی آیا رمزنگاری C2PA می تواند کلید مبارزه با اطلاعات نادرست مبتنی بر باشد؟ همراه ما باشید

Adobe، Arm، Intel، Microsoft و Truepic وزنه ی خود را پشت سر C2PA، جایگزینی برای واترمارک کردن محتوای تولید شده توسط هوش مصنوعی قرار دادند.

 

یک سر ربات رنگارنگ که نشان دهنده هوش مصنوعی مولد است.

با تکثیر هوش مصنوعی مولد در فضای نرم افزاری سازمانی، استانداردهایی همچنان در سطوح دولتی و سازمانی برای نحوه استفاده از آن ایجاد می شود. یکی از این استانداردها گواهینامه تولید کننده محتوای هوش مصنوعی است که به نام C2PA شناخته می شود.

C2PA دو سال است که وجود دارد، اما اخیراً با رایج‌تر شدن هوش مصنوعی مولد مورد توجه قرار گرفته است. عضویت در سازمان پشتیبان C2PA در شش ماه گذشته دو برابر شده است.

 

C2PA چیست؟

مشخصات C2PA یک پروتکل منبع باز است که نحوه افزودن بیانیه های منشأ، که به عنوان ادعاها نیز شناخته می شود، به یک قطعه محتوا را تشریح می کند. گزاره‌های منشأ ممکن است به‌عنوان دکمه‌هایی ظاهر شوند که بینندگان می‌توانند روی دکمه‌ها کلیک کنند تا ببینند آیا قطعه رسانه به طور جزئی یا کامل با هوش مصنوعی ایجاد شده است.

به عبارت ساده، داده‌های منشأ به صورت رمزنگاری به قطعه رسانه متصل می‌شوند، به این معنی که هرگونه تغییر در یکی از آنها به الگوریتمی هشدار می‌دهد که رسانه دیگر نمی‌تواند احراز هویت شود. با مطالعه مشخصات فنی C2PA می توانید در مورد نحوه عملکرد این رمزنگاری اطلاعات بیشتری کسب کنید.

این پروتکل توسط Coalition for Content Provenance and Authenticity که با نام C2PA نیز شناخته می شود ایجاد شده است. Adobe، Arm، Intel، Microsoft و Truepic همگی از C2PA پشتیبانی می‌کنند که پروژه‌ای مشترک است که Content Authenticity Initiative و Project Origin را گرد هم می‌آورد.

Content Authenticity Initiative سازمانی است که توسط Adobe برای تشویق ارائه اطلاعات منشأ و زمینه برای رسانه های دیجیتال تاسیس شده است. Project Origin که توسط مایکروسافت و بی‌بی‌سی ایجاد شده است، یک رویکرد استاندارد شده برای فناوری منشأ دیجیتالی است تا مطمئن شود اطلاعات – به‌ویژه رسانه‌های خبری – دارای منبع قابل اثبات هستند و دستکاری نشده‌اند.

شاید این مقاله را هم دوست داشته باشید :  هوش مصنوعی و برنامه های کاربردی پیشرفته زیرساخت های فناوری فعلی را تحت فشار قرار می دهند

هدف گروه‌هایی که C2PA را تشکیل می‌دهند، متوقف کردن اطلاعات نادرست، به ویژه محتوای تولید شده توسط هوش مصنوعی است که ممکن است با عکس‌ها و ویدیوهای معتبر اشتباه گرفته شود.

می توان محتوای هوش مصنوعی را علامت گذاری کرد؟

در ژوئیه 2023، دولت ایالات متحده و شرکت‌های برجسته هوش مصنوعی توافقنامه‌ای داوطلبانه برای افشای زمان ایجاد محتوا توسط هوش مصنوعی مولد منتشر کردند. استاندارد C2PA یکی از راه های ممکن برای برآوردن این نیاز است. واترمارک و تشخیص هوش مصنوعی دو روش متمایز دیگر هستند که می توانند تصاویر تولید شده توسط رایانه را علامت گذاری کنند. در ژانویه 2023، OpenAI طبقه‌بندی‌کننده هوش مصنوعی خود را برای این منظور معرفی کرد، اما سپس آن را در ژوئیه تعطیل کرد.

در همین حال، گوگل در تلاش است تا خدمات واترمارکینگ را در کنار هوش مصنوعی خود ارائه دهد. به گفته غول فناوری در می 2023، PaLM 2 LLM که در Google Cloud میزبانی شده است، می‌تواند تصاویر تولید شده توسط ماشین را برچسب‌گذاری کند.

ببینید: مراکز تماس مبتنی بر ابر در موج محبوبیت هوش مصنوعی مولد هستند. (TechRepublic)

در حال حاضر تعداد انگشت شماری از محصولات تشخیص هوش مصنوعی مولد در بازار وجود دارد. بسیاری از آنها، مانند آشکارساز GPT Writfull، توسط سازمان‌هایی ایجاد می‌شوند که ابزارهای نوشتن هوش مصنوعی مولد را نیز در دسترس قرار می‌دهند. آنها مشابه روشی که خود هوش مصنوعی انجام می دهند کار می کنند. GPTZero، که خود را به عنوان یک آشکارساز محتوای هوش مصنوعی برای آموزش تبلیغ می‌کند، به عنوان یک «طبقه‌بندی» توصیف می‌شود که از همان الگوی تشخیص الگوی مدل‌های ترانسفورماتور از پیش آموزش‌دیده مولد استفاده می‌کند.

اهمیت واترمارک برای جلوگیری از استفاده مخرب هوش مصنوعی

رهبران کسب و کار باید کارمندان خود را تشویق کنند که به دنبال محتوای تولید شده توسط هوش مصنوعی باشند – که ممکن است به این عنوان برچسب زده شود یا نباشد – به منظور تشویق اسناد مناسب و اطلاعات قابل اعتماد. همچنین مهم است که محتوای تولید شده توسط هوش مصنوعی که در سازمان ایجاد شده است به این عنوان برچسب زده شود.

شاید این مقاله را هم دوست داشته باشید :  سناتور کیسی برای محافظت از کارگران در برابر "رؤسای ربات" لایحه های جدید هوش مصنوعی را معرفی می کند.

دکتر الساندرا سالا، مدیر ارشد هوش مصنوعی و علوم داده در Shutterstock، در یک بیانیه مطبوعاتی گفت: “پیوستن به CAI و پذیرش استاندارد زیربنایی C2PA یک گام طبیعی در تلاش مداوم ما برای محافظت از جامعه هنرمندان و کاربرانمان با حمایت است. توسعه سیستم‌ها و زیرساخت‌هایی که شفافیت بیشتری ایجاد می‌کنند و به کاربران ما کمک می‌کنند تا به آسانی آنچه را که یک هنرمند خلق می‌کند در مقابل هنر تولید شده یا اصلاح‌شده توسط هوش مصنوعی شناسایی کنند.»

و همه چیز به این برمی گردد که مطمئن شویم مردم از این فناوری برای انتشار اطلاعات نادرست استفاده نمی کنند.

اندی پارسونز، مدیر ارشد Content Authenticity Initiative در ادوبی، گفت: «همانطور که این فناوری به طور گسترده پیاده‌سازی می‌شود، مردم انتظار دارند اطلاعات اعتبار محتوا به بیشتر محتوایی که آنلاین می‌بینند متصل شود. “به این ترتیب، اگر تصویری اطلاعات اعتبار محتوا را به آن ضمیمه نکرده باشد، ممکن است در تصمیم گیری در مورد اعتماد و اشتراک گذاری آن، بررسی دقیق بیشتری را اعمال کنید.”

انتساب محتوا همچنین به هنرمندان کمک می کند تا مالکیت آثار خود را حفظ کنند

برای کسب‌وکارها، شناسایی محتوای تولید شده توسط هوش مصنوعی و علامت‌گذاری محتوای خود در صورت لزوم می‌تواند اعتماد را افزایش داده و از توزیع نادرست جلوگیری کند. سرقت ادبی، به هر حال، هر دو طرف را دنبال می کند. هنرمندان و نویسندگانی که از هوش مصنوعی مولد برای سرقت ادبی استفاده می کنند باید شناسایی شوند. در عین حال، هنرمندان و نویسندگانی که آثار اصلی را تولید می‌کنند، باید اطمینان حاصل کنند که اثر در پروژه‌ای که توسط هوش مصنوعی دیگران ایجاد می‌شود، ظاهر نمی‌شود.

برای تیم‌های طراحی گرافیک و هنرمندان مستقل، Adobe در حال کار بر روی برچسب Do Not Train در پنل‌های منشأ محتوای خود در فتوشاپ و محتوای Adobe Firefly است تا مطمئن شود از هنر اصلی برای آموزش هوش مصنوعی استفاده نمی‌شود.

امیدواریم از این مقاله مجله هشت پیک نیز استفاده لازم را کرده باشید و در صورت تمایل آنرا با دوستان خود به اشتراک بگذارید و با امتیاز از قسمت پایین و درج نظرات باعث دلگرمی مجموعه مجله 8pic باشید

5/5 - (1 امتیاز)

لینک کوتاه مقاله : https://5ia.ir/ohcZIC
کوتاه کننده لینک
کد QR :
اشتراک گذاری

شاید این مطالب را هم دوست داشته باشید

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *