سنگاپور پیش نویس دستورالعمل استفاده از داده های شخصی در آموزش هوش مصنوعی را منتشر می کند

زمان مطالعه: 5 دقیقه

با مجله هشت پیک با مقاله ی سنگاپور پیش نویس دستورالعمل استفاده از داده های شخصی در را منتشر می کند
همراه ما باشید

امواج داده انتزاعی هوش مصنوعی

آندری اونوفرینکو/گتی ایماژ

سنگاپور پیش نویس دستورالعمل هایی را درباره نحوه مدیریت داده های شخصی هنگام استفاده برای آموزش مدل ها و سیستم های هوش مصنوعی (AI) منتشر کرده است.

به گفته کمیسیون حفاظت از داده های شخصی (PDPC) که این قانون را اداره می کند، این سند نشان می دهد که چگونه قانون حفاظت از داده های شخصی کشور (PDPA) زمانی اعمال می شود که مشاغل از اطلاعات شخصی برای توسعه و آموزش سیستم های هوش مصنوعی خود استفاده می کنند. این دستورالعمل ها همچنین شامل بهترین شیوه ها در ایجاد شفافیت در مورد نحوه استفاده سیستم های هوش مصنوعی از داده های شخصی برای تصمیم گیری، پیش بینی و توصیه می شود.

همچنین: به گفته یک متخصص هوش مصنوعی، هوش مصنوعی بیشتر از تغییرات آب و هوایی باعث نابودی جهان می شود

با این حال، دستورالعمل ها از نظر قانونی الزام آور نیستند و هیچ یک از قوانین موجود را تکمیل یا تغییر نمی دهند. آنها به مسائل و موقعیت‌ها نگاه می‌کنند، مانند اینکه چگونه شرکت‌ها ممکن است از استثناهای موجود در PDPA در توسعه مدل‌ها یا سیستم‌های یادگیری ماشین بهره ببرند.

این دستورالعمل همچنین به این موضوع می‌پردازد که چگونه سازمان‌ها می‌توانند هنگام جمع‌آوری داده‌های شخصی برای سیستم‌های هوش مصنوعی یادگیری ماشینی که پیش‌بینی‌ها، تصمیم‌گیری‌ها و توصیه‌ها را تسهیل می‌کنند، الزامات مربوط به رضایت، مسئولیت‌پذیری و اطلاع‌رسانی را برآورده کنند.

این سند همچنین اشاره می‌کند که چه زمانی برای شرکت‌ها مناسب است که به دو استثنا روی آورند، برای تحقیق و بهبود کسب‌وکار، بدون نیاز به کسب رضایت برای استفاده از داده‌های شخصی برای آموزش مدل‌های هوش مصنوعی.

همچنین: 6 روش مضر برای استفاده از

استثناهای بهبود کسب و کار ممکن است زمانی اعمال شود که شرکت ها محصولی را توسعه دهند یا محصول موجودی داشته باشند که به دنبال بهبود آن هستند. این استثنا همچنین ممکن است زمانی مرتبط باشد که سیستم هوش مصنوعی برای تقویت فرآیندهای تصمیم گیری که کارایی عملیاتی را بهبود می بخشد یا محصولات و خدمات شخصی سازی شده را ارائه می دهد، استفاده می شود.

به عنوان مثال، استثنا بهبود کسب و کار را می توان برای سیستم های توصیه های منابع انسانی داخلی که برای ارائه اولین برش از نامزدهای بالقوه برای یک نقش استفاده می شود، اعمال کرد. همچنین ممکن است در استفاده از هوش مصنوعی یا مدل‌ها و سیستم‌های یادگیری ماشینی برای ارائه ویژگی‌های جدیدی که رقابت محصولات و خدمات را بهبود می‌بخشد، استفاده شود.

شاید این مقاله را هم دوست داشته باشید :  آموزش کیوبیس فصل یازدهم بخش اول : بخش های صوتی و پنجره Audio Part Editor

با این حال، سازمان‌ها باید اطمینان حاصل کنند که هدف بهبود کسب‌وکار «نمی‌تواند معقولانه» بدون استفاده از داده‌های شخصی به شیوه‌ای قابل شناسایی فردی به دست آید.

همچنین: این هوش مصنوعی مولد چقدر بزرگ است؟ به اختلال در سطح اینترنت فکر کنید

تحت استثنای تحقیق، سازمان‌ها مجاز به استفاده از داده‌های شخصی برای انجام تحقیق و توسعه هستند که ممکن است کاربرد فوری در محصولات و خدمات موجود یا عملیات تجاری نداشته باشند. این می تواند شامل کار تحقیقاتی تجاری مشترک با سایر شرکت ها برای توسعه سیستم های هوش مصنوعی جدید باشد.

سازمان‌ها باید اطمینان حاصل کنند که پژوهش بدون استفاده از داده‌های شخصی به شکلی قابل شناسایی نمی‌تواند به طور منطقی انجام شود. همچنین در استفاده از داده های شخصی برای تحقیق باید منافع عمومی روشنی وجود داشته باشد و از نتایج تحقیق نمی توان برای تصمیم گیری هایی که بر فرد تأثیر می گذارد استفاده کرد. علاوه بر این، نتایج منتشر شده از تحقیق نباید فرد را شناسایی کند.

این دستورالعمل‌ها همچنین به سازمان‌هایی که از داده‌های شخصی برای سیستم‌های هوش مصنوعی استفاده می‌کنند، توصیه می‌کند که ارزیابی تأثیر حفاظت از داده‌ها را انجام دهند که به اثربخشی اقدامات کاهش خطر و اقدامات اصلاحی اعمال شده روی داده‌ها می‌پردازد.

همچنین: هوش مصنوعی می تواند 25 درصد از تمام مشاغل را خودکار کند. در اینجا کدامیک بیشتر در معرض خطر هستند

با توجه به حفاظت از داده ها، سازمان ها باید هنگام توسعه، آموزش و نظارت بر سیستم های هوش مصنوعی که از داده های شخصی استفاده می کنند، فرآیندهای فنی مناسب و کنترل های قانونی را شامل شوند.

در دستورالعمل‌ها آمده است: «در زمینه توسعه سیستم‌های هوش مصنوعی، سازمان‌ها باید به حداقل رساندن داده‌ها به عنوان یک عمل خوب عمل کنند.

استفاده از داده‌های شخصی که حاوی ویژگی‌های مورد نیاز برای آموزش و بهبود سیستم هوش مصنوعی یا مدل یادگیری ماشینی است، حفاظت غیرضروری از داده‌ها و خطرات سایبری برای سیستم هوش مصنوعی را نیز کاهش می‌دهد.

PDPC به دنبال بازخورد عمومی در مورد پیش نویس دستورالعمل است که باید تا 31 اوت ارائه شود.

مشارکت برای آزمایش ابزارهای حفاظت از حریم خصوصی

سنگاپور همچنین شراکتی با گوگل اعلام کرده است که به کسب‌وکارهای محلی امکان می‌دهد تا استفاده از «فناوری‌های افزایش حریم خصوصی» یا آنچه را که دولت از PET استفاده می‌کند، آزمایش کنند.

شاید این مقاله را هم دوست داشته باشید :  یکی از بنیانگذاران گوگل برای تقویت تلاش های هوش مصنوعی خود به این شرکت بازگشته است

ژوزفین تئو، وزیر ارتباطات و اطلاعات، با تبلیغ این ابزارها به عنوان ابزارهای دیگری برای کمک به سازمان‌ها در ساخت مجموعه داده‌های خود، گفت: “PET‌ها به کسب‌وکارها اجازه می‌دهند از مجموعه داده‌های مصرف‌کننده ارزش استخراج کنند، در حالی که از اطلاعات شخصی محافظت می‌شوند. از طریق تسهیل اشتراک‌گذاری داده‌ها، آنها همچنین می‌توانند به توسعه کسب‌وکار کمک کنند. بینش داده های مفید و سیستم های هوش مصنوعی.”

تئو گفت، برای مثال، استفاده از PET به بانک‌ها اجازه می‌دهد تا داده‌ها را جمع‌آوری کرده و مدل‌های هوش مصنوعی را برای شناسایی موثرتر تقلب بسازند، در حالی که از هویت و داده‌های مالی مشتریان خود محافظت می‌کنند.

برای پیشبرد پذیرش PET ها، اداره توسعه رسانه Infocomm (IMDA) سال گذشته یک جعبه ایمنی PET را معرفی کرد تا به کسب و کارها دسترسی به کمک های مالی و منابع برای توسعه چنین راه حل هایی را ارائه دهد.

همچنین: آینده پژوه می گوید که ChatGPT بیشتر شبیه یک «هوش بیگانه» است تا مغز انسان

همکاری با Google به سازمان‌های سنگاپور اجازه می‌دهد تا برنامه‌های سندباکس حریم خصوصی Google خود را در جعبه ایمنی IMDA آزمایش کنند. PDPC گفت: این سیستم یک محیط امن را فراهم می کند که در آن شرکت ها می توانند از داده ها استفاده کنند یا بدون افشای اطلاعات حساس به اشتراک بگذارند.

این سند اضافه کرد که IMDA و Google sandbox برای مشاغل مستقر در سنگاپور در دسترس است و برای adtech، ناشران و توسعه دهندگان و غیره طراحی شده است.

همچنین: چرا مکالمات ChatGPT شما ممکن است آنقدر که فکر می کنید ایمن نباشند

به گفته تئو، این مشارکت اولین همکاری گوگل با یک تنظیم کننده در آسیا و اقیانوسیه برای تسهیل آزمایش و پذیرش PET ها است.

او گفت که از طریق این ابتکار، سازمان ها می توانند به “فضای امن” برای اجرای پروژه های آزمایشی با استفاده از PET بر روی پلتفرمی که قبلاً روی آن کار می کنند، دسترسی داشته باشند.

او گفت: «با از بین رفتن کوکی‌های شخص ثالث، کسب‌وکارها دیگر نمی‌توانند برای ردیابی رفتار مصرف‌کنندگان از طریق مرورگر به آن‌ها تکیه کنند و به عنوان جایگزین به PET نیاز دارند. «مصرف‌کنندگان بدون ترس از به خطر افتادن اطلاعات شخصی‌شان، دریافت محتوای مرتبط‌تری را تجربه خواهند کرد.»



امیدواریم از این مقاله مجله هشت پیک نیز استفاده لازم را کرده باشید و در صورت تمایل آنرا با دوستان خود به اشتراک بگذارید و با امتیاز از قسمت پایین و درج نظرات باعث دلگرمی مجموعه مجله 8pic باشید

امتیاز بدهید

لینک کوتاه مقاله : https://5ia.ir/nZUlOY
کوتاه کننده لینک
کد QR :
اشتراک گذاری

شاید این مطالب را هم دوست داشته باشید

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *