نمایندگان شورای امنیت سازمان ملل از کنترل های هوش مصنوعی برای خنثی کردن تهدید بالقوه جهانی می خواهند

زمان مطالعه: 6 دقیقه

با مجله هشت پیک با مقاله ی نمایندگان شورای امنیت سازمان ملل از کنترل های برای خنثی کردن تهدید بالقوه جهانی می خواهند
همراه ما باشید

قفل امنیت سایبری بر روی شخصی که در رایانه تایپ می کند

TU IS/Getty Images

نیاز به تلاش های جمعی جهانی برای کنترل هوش مصنوعی (AI) وجود دارد، جایی که اجماع مشترک در مورد نرده های محافظ مورد نیاز ضروری است.

آنتونیو گوترش، دبیر کل سازمان ملل متحد (سازمان ملل) گفت: در میان درخواست‌ها برای اقدامات و ابتکارات مختلف جهانی، حکمرانی هوش مصنوعی پیچیده خواهد بود و نیازمند رویکردی جهانی است. گوترش در اظهارات خود در شورای امنیت سازمان ملل گفت: مدل‌های هوش مصنوعی در حال حاضر به طور گسترده در دسترس عموم هستند و برخلاف مواد هسته‌ای و عوامل بیولوژیکی، ابزارهای آن را می‌توان بدون باقی گذاشتن ردی جابه‌جا کرد.

همچنین: WormGPT: آنچه درباره پسر عموی مخرب ChatGPT باید بدانید

اعضای شورا این هفته برای اولین جلسه رسمی خود در مورد هوش مصنوعی گرد هم آمده بودند، جایی که سخنرانان شامل جک کلارک، بنیانگذار Anthropic و موسسه اتوماسیون آکادمی علوم چین، Zeng Yi، که استاد و مدیر مرکز تحقیقات بین المللی اخلاق و حکومت AI است، بودند.

گوترش با توصیف هوش مصنوعی مولد به عنوان «پیشرفت رادیکال» در قابلیت‌ها، گفت که سرعت و دستیابی به این فناوری «کاملاً بی‌سابقه» بوده و ChatGPT تنها در دو ماه به 100 میلیون کاربر رسیده است.

او گفت، اما در حالی که هوش مصنوعی این پتانسیل را دارد که به طور قابل توجهی به توسعه جهانی و تحقق حقوق بشر، از جمله در مراقبت های بهداشتی، دامن بزند، اما همچنین می تواند باعث تعصب و تبعیض شود. این فناوری می‌تواند نظارت مستبدانه را بیشتر کند.

او از شورا خواست تا تأثیر هوش مصنوعی بر صلح و امنیت را ارزیابی کند و تأکید کرد که نگرانی‌های بشردوستانه، اخلاقی، حقوقی و سیاسی وجود داشته است.

همچنین: بر اساس یک مطالعه، GPT-4 در طول زمان به طور قابل توجهی احمقانه تر می شود

“[AI] به طور فزاینده‌ای برای شناسایی الگوهای خشونت، نظارت بر آتش‌بس‌ها و موارد دیگر استفاده می‌شود و به تقویت تلاش‌های صلح‌بانی، میانجی‌گری و بشردوستانه ما کمک می‌کند. مدل‌های هوش مصنوعی می‌توانند به افراد کمک کنند تا به خود و یکدیگر در مقیاس وسیع آسیب برسانند.”

همانطور که هست، هوش مصنوعی قبلا برای راه اندازی حملات سایبری با هدف قرار دادن زیرساخت های حیاتی استفاده شده است. وی خاطرنشان کرد که کاربردهای هوش مصنوعی نظامی و غیرنظامی می تواند منجر به عواقب جدی برای صلح و امنیت جهانی شود.

کلارک از نیاز دولت‌های جهانی برای گردهم آمدن، ایجاد ظرفیت و تبدیل سیستم‌های هوش مصنوعی به یک «تلاش مشترک» حمایت کرد، نه اینکه توسط تعدادی بازیگر که برای سهمی از بازار رقابت می‌کنند، رهبری شود.

او گفت: «ما نمی‌توانیم توسعه هوش مصنوعی را صرفاً به بازیگران بخش خصوصی بسپاریم.» او خاطرنشان کرد که توسعه مدل‌های هوش مصنوعی مانند Claude خود Anthropic، ChatGPT OpenAI و Bard بر اساس منافع شرکت هدایت می‌شوند. وی افزود، با دسترسی شرکت‌های بخش خصوصی به سیستم‌های پیچیده، حجم داده‌های بزرگ و منابع مالی، احتمالاً به تعریف توسعه سیستم‌های هوش مصنوعی ادامه خواهند داد.

همچنین: اینگونه است که هوش مصنوعی مولد اقتصاد گیگ را برای بهتر شدن تغییر خواهد داد

شاید این مقاله را هم دوست داشته باشید :  3 روش رایگان برای دریافت خلاصه هوش مصنوعی از یک مقاله طولانی وب

این می تواند به دلیل احتمال سوء استفاده از هوش مصنوعی و غیرقابل پیش بینی بودن آن، مزایا و تهدیدهایی را به دنبال داشته باشد. او توضیح داد که از این فناوری می توان برای درک بهتر زیست شناسی و همچنین ساخت سلاح های بیولوژیکی استفاده کرد.

و هنگامی که سیستم‌های هوش مصنوعی توسعه و پیاده‌سازی شدند، می‌توان کاربردهای جدیدی از آن‌ها را کشف کرد که توسط توسعه‌دهندگان آن‌ها پیش‌بینی نشده بود. او گفت که خود سیستم ها نیز ممکن است رفتار غیرقابل پیش بینی یا آشفته ای از خود نشان دهند.

کلارک گفت: “بنابراین، ما باید با دقت در مورد چگونگی اطمینان از پاسخگویی توسعه دهندگان این سیستم ها فکر کنیم، به طوری که آنها سیستم های ایمن و قابل اعتمادی را بسازند که امنیت جهانی را به خطر نیندازند.”

گوترش گفت که ظهور هوش مصنوعی مولد اکنون می تواند اطلاعات نادرست را بیشتر کند و حقایق را تضعیف کند و راه های جدیدی را برای دستکاری رفتار انسان به همراه داشته باشد و منجر به بی ثباتی در مقیاس گسترده شود. او با استناد به دیپ فیک ها گفت که چنین ابزارهای هوش مصنوعی در صورت کنترل نشدن می توانند خطرات امنیتی جدی ایجاد کنند.

همچنین: بهترین چت ربات های هوش مصنوعی

او افزود که سیستم‌های هوش مصنوعی ناکارآمد همچنین یک نگرانی قابل‌توجه بود، همانطور که تعامل بین هوش مصنوعی و سلاح‌های هسته‌ای، بیوتکنولوژی، نوروتکنولوژی و روباتیک «عمیقاً هشداردهنده» بود.

او گفت: “هوش مصنوعی مولد پتانسیل عظیمی برای خیر و شر در مقیاس دارد. خود سازندگان آن هشدار داده اند که خطرات بسیار بزرگتر، بالقوه فاجعه بار و وجودی در راه است.” بدون اقدام برای مقابله با این خطرات، ما از مسئولیت های خود در قبال نسل های کنونی و آینده خودداری می کنیم.

نهاد جدید سازمان ملل برای اداره هوش مصنوعی مورد نیاز است

گوترش گفت که از درخواست‌ها برای ایجاد یک نهاد سازمان ملل برای تسهیل تلاش‌های جمعی در مدیریت هوش مصنوعی، مشابه آژانس بین‌المللی انرژی اتمی و هیئت بین‌دولتی تغییرات آب و هوایی حمایت می‌کند.

او گفت: «بهترین رویکرد چالش‌های موجود را برطرف می‌کند و در عین حال ظرفیت نظارت و پاسخ به خطرات آینده را ایجاد می‌کند. باید منعطف و سازگار باشد و مسائل فنی، اجتماعی و حقوقی را در نظر بگیرد.

همچنین: هوش مصنوعی و برنامه های کاربردی پیشرفته زیرساخت های فناوری فعلی را تحت فشار قرار می دهند

وی افزود: «نیاز به استانداردها و رویکردهای جهانی، سازمان ملل را به مکانی ایده آل برای تحقق این امر تبدیل می کند».

هدف نهاد جدید سازمان ملل متحد باید حمایت از کشورها در به حداکثر رساندن مزایای هوش مصنوعی، کاهش خطرات و ایجاد مکانیسم های بین المللی برای نظارت و حکومت باشد. نهاد جدید همچنین باید تخصص لازم را جمع‌آوری کند، آن را در دسترس جامعه بین‌المللی قرار دهد و از تلاش‌های تحقیق و توسعه ابزارهای هوش مصنوعی که موجب پایداری می‌شود، حمایت کند.

گوترش گفت که در حال تشکیل یک «هیئت مشاوره سطح بالا برای هوش مصنوعی» است تا کارها را شروع کند، با این هدف که تا پایان سال گزینه‌هایی را برای مدیریت جهانی هوش مصنوعی پیشنهاد کند.

وی افزود که یک خلاصه سیاست آتی در مورد “دستور کار جدید برای صلح” همچنین شامل توصیه هایی در مورد حکمرانی هوش مصنوعی برای کشورهای عضو سازمان ملل خواهد بود. اینها شامل توصیه هایی برای استراتژی های ملی در مورد توسعه و استفاده مسئولانه از هوش مصنوعی، و همچنین تعامل چندجانبه برای توسعه هنجارها و اصول پیرامون کاربردهای نظامی هوش مصنوعی است.

شاید این مقاله را هم دوست داشته باشید :  گوگل در حال آزمایش یک هوش مصنوعی است که می تواند به روزنامه نگاران در نوشتن داستان های خبری کمک کند

همچنین از کشورهای عضو خواسته می‌شود که با یک چارچوب جهانی برای تنظیم و تقویت مکانیسم‌های نظارتی برای استفاده از فناوری داده‌محور، از جمله هوش مصنوعی، برای اهداف ضدتروریسم موافقت کنند.

همچنین: آیا واقعاً بشریت محکوم به فناست؟ پاشنه آشیل هوش مصنوعی را در نظر بگیرید

او گفت که مذاکرات برای خلاصه سیاست تا سال 2026 به نتیجه می رسد، که به موجب آن یک توافق نامه الزام آور قانونی برای غیرقانونی کردن سلاح های خودمختار مرگبار که بدون نظارت انسان عمل می کنند، ایجاد می شود.

کلارک همچنین از جامعه بین‌المللی خواست تا راه‌هایی برای آزمایش قابلیت‌ها، سوء استفاده‌ها و نقص‌های ایمنی احتمالی سیستم‌ها ایجاد کند. او گفت که این اطمینان خاطر است که چندین کشور از جمله چین، اتحادیه اروپا و ایالات متحده، در پیشنهادات خط مشی هوش مصنوعی خود بر ارزیابی ایمنی تمرکز کرده اند.

وی همچنین بر نیاز به استانداردها و بهترین شیوه ها در مورد نحوه آزمایش چنین سیستم هایی برای حوزه های کلیدی مانند تبعیض و سوء استفاده که در حال حاضر فاقد آن هستند، تاکید کرد.

Zeng اشاره کرد که سیستم‌های هوش مصنوعی فعلی، از جمله هوش مصنوعی مولد، ابزارهای پردازش اطلاعات هستند که هوشمند به نظر می‌رسند اما درک واقعی ندارند.

وی خاطرنشان کرد: به همین دلیل است که نمی توان به آنها به عنوان عوامل مسئولی که می توانند به انسان در تصمیم گیری کمک کنند اعتماد کرد. به عنوان مثال، وظایف دیپلماسی نباید خودکار شوند. به طور خاص، هوش مصنوعی نباید در مذاکرات خارجی بین کشورهای مختلف اعمال شود، زیرا ممکن است محدودیت ها و ضعف های انسانی را برای ایجاد خطرات بزرگتر تقویت کند.

او گفت: «هوش مصنوعی هرگز نباید تظاهر به انسان بودن کند. “انسان ها باید همیشه حفظ کنند و مسئول تصمیم گیری نهایی در مورد استفاده از سلاح های هسته ای باشند.”

همچنین: ChatGPT و هوش مصنوعی جدید به روش های هیجان انگیز و ترسناکی امنیت سایبری را ویران می کنند.

عمران شرف، دستیار وزیر علوم و فناوری پیشرفته امارات متحده عربی گفت که سهامداران جهانی اکنون فرصتی برای متحد شدن در بحث در مورد نرده های محافظ مورد نیاز برای هوش مصنوعی دارند.

قبل از اینکه «خیلی دیر شود»، او از کشورهای عضو خواست تا درباره قوانین مورد نیاز، از جمله مکانیسم‌هایی برای جلوگیری از انتشار اطلاعات نادرست و اطلاعات نادرست که می‌تواند به افراط‌گرایی و درگیری دامن بزند، ابزارهای هوش مصنوعی به اجماع برسند.

شرف گفت که مانند سایر فناوری های دیجیتال، پذیرش هوش مصنوعی باید بر اساس قوانین بین المللی که باید در حوزه سایبری اعمال شود، هدایت شود. با این حال، او خاطرنشان کرد که مقررات باید چابک و انعطاف‌پذیر باشند، بنابراین مانع پیشرفت فناوری‌های هوش مصنوعی نمی‌شوند.



امیدواریم از این مقاله مجله هشت پیک نیز استفاده لازم را کرده باشید و در صورت تمایل آنرا با دوستان خود به اشتراک بگذارید و با امتیاز از قسمت پایین و درج نظرات باعث دلگرمی مجموعه مجله 8pic باشید

امتیاز بدهید

لینک کوتاه مقاله : https://5ia.ir/LyPSNT
کوتاه کننده لینک
کد QR :
اشتراک گذاری

شاید این مطالب را هم دوست داشته باشید

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *