OpenAI، Google و بیشتر با فهرست هشت تضمین ایمنی هوش مصنوعی کاخ سفید موافقت کردند

زمان مطالعه: 3 دقیقه

با مجله هشت پیک با مقاله ی OpenAI، Google و بیشتر با فهرست هشت تضمین ایمنی کاخ سفید موافقت کردند
همراه ما باشید

تضمین ها شامل واترمارکینگ، گزارش در مورد قابلیت ها و خطرات، سرمایه گذاری در پادمان ها برای جلوگیری از سوگیری و موارد دیگر است.

کاخ سفید.
تصویر: Bill Chizek/Adobe Stock

برخی از بزرگ‌ترین شرکت‌های هوش مصنوعی فعال در ایالات متحده قصد دارند محتوای خود را واترمارک کنند، یک برگه اطلاعاتی از کاخ سفید در روز جمعه، 21 ژوئیه فاش شد. آمازون، آنتروپیک، گوگل، Inflection، Meta، مایکروسافت و OpenAI با هشت تعهد داوطلبانه در مورد استفاده و نظارت بر هوش مصنوعی مولد از جمله واترمارک موافقت کردند.

این به دنبال بیانیه ماه مارس در مورد نگرانی های کاخ سفید در مورد سوء استفاده از هوش مصنوعی است. همچنین، این توافق در زمانی انجام می‌شود که تنظیم‌کننده‌ها رویه‌هایی را برای مدیریت تأثیر هوش مصنوعی مولد بر فناوری و روش‌های تعامل مردم با آن از زمانی که محتوای هوش مصنوعی را در نوامبر 2022 در معرض دید عموم قرار داده است، تعیین می‌کنند.

پرش به:

هشت تعهد ایمنی هوش مصنوعی چیست؟

هشت تعهد ایمنی هوش مصنوعی عبارتند از:

  • تست امنیت داخلی و خارجی سیستم های هوش مصنوعی قبل از انتشار آنها.
  • به اشتراک گذاری اطلاعات در سراسر صنعت و با دولت ها، جامعه مدنی و دانشگاهیان در مورد مدیریت خطرات هوش مصنوعی.
  • سرمایه‌گذاری در امنیت سایبری و حفاظت از تهدیدات داخلی، به‌ویژه برای محافظت از وزن‌های مدل، که بر تعصب و مفاهیمی که مدل هوش مصنوعی با هم مرتبط می‌کند، تأثیر می‌گذارد.
  • تشویق شخص ثالث به کشف و گزارش آسیب‌پذیری‌ها در سیستم‌های هوش مصنوعی آنها.
  • گزارش عمومی تمام قابلیت ها، محدودیت ها و زمینه های استفاده مناسب و نامناسب سیستم های هوش مصنوعی.
  • اولویت دادن به تحقیقات در مورد تعصب و حریم خصوصی.
  • کمک به استفاده از هوش مصنوعی برای اهداف مفید مانند تحقیقات سرطان.
  • توسعه مکانیسم های فنی قوی برای واترمارک.
شاید این مقاله را هم دوست داشته باشید :  چگونه از شر هوش مصنوعی من در اسنپ چت خلاص شویم

تعهد واترمارک شامل شرکت های مولد هوش مصنوعی است که راهی برای علامت گذاری متن، محتوای صوتی یا بصری به عنوان تولید شده توسط ماشین ایجاد می کنند. برای هر محتوای AI مولد در دسترس عموم که پس از قفل شدن سیستم واترمارکینگ ایجاد می شود اعمال می شود. از آنجایی که سیستم واترمارکینگ هنوز ایجاد نشده است، مدتی طول می کشد تا یک روش استاندارد برای تشخیص اینکه آیا محتوا تولید شده توسط هوش مصنوعی است در دسترس عموم قرار گیرد.

دیدن: کیت استخدام: مهندس سریع (TechRepublic Premium)

مقررات دولتی هوش مصنوعی ممکن است عوامل مخرب را دلسرد کند

معاون جهانی سابق Microsoft Azure و مدیر تدارکات فعلی Cognite، Moe Tanabian از مقررات دولتی هوش مصنوعی مولد حمایت می کند. او در گفتگو با TechRepublic، دوران فعلی هوش مصنوعی مولد را با ظهور رسانه‌های اجتماعی، از جمله جنبه‌های منفی احتمالی مانند رسوایی حریم خصوصی داده‌های کمبریج آنالیتیکا و سایر اطلاعات نادرست در طول انتخابات ۲۰۱۶ مقایسه کرد.

“فرصت های زیادی برای استفاده بازیگران بدخواه وجود دارد [generative AI]، و از آن استفاده می کنند و از آن سوء استفاده می کنند، و آنها این کار را انجام می دهند. بنابراین، من فکر می‌کنم، دولت‌ها باید مقداری واترمارک، برخی از عناصر اعتماد را داشته باشند که باید آن را نمونه‌سازی کنند و باید تعریف کنند.»

او گفت: «به عنوان مثال، تلفن‌ها باید بتوانند تشخیص دهند که آیا عوامل مخرب از صداهای تولید شده توسط هوش مصنوعی برای ارسال پیام‌های صوتی تقلبی استفاده می‌کنند یا خیر.

از نظر فن آوری، ما محروم نیستیم. ما می دانیم چگونه [detect AI-generated content]طنابیان گفت. “نیاز به صنعت و ایجاد آن مقررات به طوری که یک ریشه اعتماد وجود داشته باشد که بتوانیم محتوای تولید شده توسط هوش مصنوعی را تأیید کنیم، کلید اصلی است.”

شاید این مقاله را هم دوست داشته باشید :  چگونه آخرین مدل هوش مصنوعی گوگل از فعالیت مغز شما موسیقی تولید می کند

امیدواریم از این مقاله مجله هشت پیک نیز استفاده لازم را کرده باشید و در صورت تمایل آنرا با دوستان خود به اشتراک بگذارید و با امتیاز از قسمت پایین و درج نظرات باعث دلگرمی مجموعه مجله 8pic باشید

امتیاز بدهید

لینک کوتاه مقاله : https://5ia.ir/czCKbq
کوتاه کننده لینک
کد QR :
اشتراک گذاری

شاید این مطالب را هم دوست داشته باشید

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *