موسسه مستقل آدا لاولیس از دولت بریتانیا میخواهد تا پیشنهادات مربوط به مقررات هوش مصنوعی را تأیید کند
با مجله هشت پیک با مقاله ی موسسه مستقل آدا لاولیس از دولت بریتانیا میخواهد تا پیشنهادات مربوط به مقررات هوش مصنوعی را تأیید کند
همراه ما باشید
در حالی که سازمان ملل متحد مقررات را حذف می کند، رویکرد “مبتنی بر زمینه” بریتانیا برای تحریک نوآوری در نظر گرفته شده است اما ممکن است باعث عدم اطمینان در صنعت شود.
تلاشهایی برای ایجاد استانداردها و مقررات برای نحوه تلاقی هوش مصنوعی مولد با بسیاری از جنبههای جامعه در سراسر جهان در حال انجام است. به عنوان مثال، در ماه مارس، دولت بریتانیا کاغذ سفیدی را منتشر کرد که در آن کشور را به عنوان مکانی برای “رشد توربوشارژ” در هوش مصنوعی معرفی کرد. بر اساس کاغذ سفید، 500000 نفر در بریتانیا در صنعت هوش مصنوعی مشغول به کار هستند و هوش مصنوعی در سال 2022 3.7 میلیارد پوند (4.75 میلیارد دلار) به اقتصاد ملی کمک کرد.
در پاسخ، در 18 ژوئیه، مؤسسه تحقیقاتی مستقل آدا لاولیس، در گزارشی طولانی، خواستار یک «سیاست داخلی قویتر» به منظور تنظیم هوش مصنوعی از طریق قانونی شد که تلاش بریتانیا برای ارتقای هوش مصنوعی به عنوان یک صنعت را روشن و سازماندهی میکند.
پرش به:
موسسه لاولیس به دولت هشدار می دهد
«شبکه قانونی و نظارتی گسترده بریتانیا برای هوش مصنوعی در حال حاضر دارای شکاف های قابل توجهی است. مت دیویس و مایکل بیرتویستل از موسسه آدا لاولیس نوشتند که حقوق واضحتر و نهادهای جدید برای اطمینان از گسترش پادمانها در اقتصاد مورد نیاز است.
هر دو گروه اساساً خواستار شفافیت بیشتر در مورد مقررات هوش مصنوعی هستند، اما دولت بریتانیا بر “طرفدار نوآوری” تمرکز دارد، در حالی که موسسه Ada Lovelace تاکید بر نظارت را ترویج می کند. دولت بریتانیا همچنین در حال کار بر روی دور شدن تدریجی از GDPR به عنوان بخشی از تغییر ساختار پس از برگزیت است.
توصیه های موسسه لاولیس چیست؟
توصیه های موسسه آدا لاولیس عبارتند از:
- نگاهی دیگر به پذیرش GDPR در بریتانیا و لایحه پیشنهادی حفاظت از داده و اطلاعات دیجیتال، که می تواند جایگزین GDPR در این کشور شود.
- انتشار بیانیه حقوق و حمایت های شهروندان در رابطه با هوش مصنوعی.
- شفاف سازی قوانین و ایجاد موقعیت های جدید دولتی پیرامون هوش مصنوعی.
- حمایت از توسعه استانداردها.
- ایجاد وجوه و حمایت دولتی برای گروه های مصرف کننده، اتحادیه های کارگری و سازمان های مشاوره ای که ممکن است بخواهند سازندگان هوش مصنوعی را پاسخگو نگه دارند.
در همین حال، بریتانیا ترجیح می دهد به نهادهای دولتی موجود اجازه دهد تصمیم بگیرند که چگونه هوش مصنوعی را به صورت موردی مدیریت کنند. به طور خاص، کاغذ سفید به مدیران اجرایی بهداشت و ایمنی، کمیسیون برابری و حقوق بشر و سازمان رقابت و بازار توصیه میکند روی «رویکردهای زمینهای خاص» خود برای هوش مصنوعی مولد کار کنند.
هنر متعادل کردن مقررات و نوآوری
جرالد کیرس ایتوریوز، یکی از بنیانگذاران و مدیر اجرایی پلتفرم مدیریت حاکمیت هوش مصنوعی Trustible، گفت که سازمان او با بسیاری از توصیه های موسسه آدا لاولیس موافق است.
او در ایمیلی به TechRepublic گفت: دولتهایی که میخواهند طرفدار نوآوری باشند، باید «مناطق خاکستری قانونی مانند استفاده از دادهها برای آموزش، نحوه ارزیابی سوگیری و انصاف و بار اثبات استانداردها را روشن کنند».
ایتوریوز گفت: «بریتانیا باید به سرعت نردههای محافظ ایجاد کند تا اطمینان حاصل شود که سیستمهای هوش مصنوعی توسعه یافته و مسئولانه در بخش عمومی استفاده میشوند.»
اگر دولت نرده های محافظ ایجاد نکند، خطرات بیشتری ممکن است ایجاد شود. به عنوان مثال، ایتوریوز به استفاده از تشخیص خودکار چهره توسط پلیس بریتانیا اشاره کرد که یک مطالعه حقوق بشری در دانشگاه کمبریج در سال گذشته نشان داد که از نظر اخلاقی و قانونی مشکوک است.
بریتانیا در مقابل نگرانی های امنیتی اتحادیه اروپا قرار دارد
رویکرد نسبتاً آزادانه بریتانیا در تضاد با تمرکز اتحادیه اروپا بر مقررات است. اتحادیه اروپا در حال کار بر روی پیش نویس قانون هوش مصنوعی برای رویکردی مبتنی بر ریسک است که بر کاهش سوگیری، اجبار یا شناسایی بیومتریک مانند تشخیص خودکار چهره تمرکز دارد. در ماه ژوئن، پارلمان اروپا پیشنویس قانونی را برای قانون هوش مصنوعی تصویب کرد که دستورالعملهایی را برای استفاده از هوش مصنوعی تعیین میکند و برخی استفادهها از جمله تشخیص چهره در مکانهای عمومی را ممنوع میکند.
نمایندگان کشورهای سراسر جهان و بسیاری از سازندگان پیشرو هوش مصنوعی نگرانی های مشابهی را در اولین نشست شورای امنیت سازمان ملل متحد درباره این موضوع ارائه کردند.
ایتوریوز گفت: «به نظر میرسد بریتانیا منتظر است تا ببیند اجرا و پذیرش قانون هوش مصنوعی اتحادیه اروپا چگونه میتواند بر رویکرد آنها نسبت به مقررات هوش مصنوعی تأثیر بگذارد. اگرچه این امر در ظاهر منطقی است، اما خطراتی برای عقب نشینی وجود دارد در حالی که دیگران در مقررات هوش مصنوعی پیشروی می کنند.
امیدواریم از این مقاله مجله هشت پیک نیز استفاده لازم را کرده باشید و در صورت تمایل آنرا با دوستان خود به اشتراک بگذارید و با امتیاز از قسمت پایین و درج نظرات باعث دلگرمی مجموعه مجله 8pic باشید
لینک کوتاه مقاله : https://5ia.ir/XArucv
کوتاه کننده لینک
کد QR :
آخرین دیدگاهها