چگونه گوگل داده ها را هنگام استفاده از چت ربات های هوش مصنوعی مولد ایمن نگه می دارد

زمان مطالعه: 4 دقیقه

به گزارش مجله هشت پیک چگونه گوگل داده ها را هنگام استفاده از چت ربات های مولد ایمن نگه می دارد
که در این بخش به محتوای این خبر با شما کاربران گرامی خواهیم پرداخت

بهشاد بهزادی گوگل در مورد نحوه استفاده از چت ربات های هوش مصنوعی بدون به خطر انداختن اطلاعات شرکت می سنجید.

لوگوی گوگل در ساختمانی در محوطه اصلی شرکت، Googleplex.
تصویر: عکاسی متفرقه/Adobe Stock

Google's Bard، یکی از برنامه‌های کاربردی مولد هوش مصنوعی امروزی، با ذره‌ای نمک در شرکت مورد استفاده قرار می‌گیرد. رویترز از طریق اسناد داخلی فاش شده دریافت، در ژوئن 2023، گوگل از کارکنان خود خواست که مطالب محرمانه را به Bard وارد نکنند. گزارش شده است که به مهندسان دستور داده شده است که از کد نوشته شده توسط چت بات استفاده نکنند.

شرکت‌هایی از جمله سامسونگ و آمازون استفاده از چت ربات‌های هوش مصنوعی مولد عمومی را به دلیل نگرانی‌های مشابه در مورد ورود اطلاعات محرمانه به داده‌های خصوصی ممنوع کرده‌اند.

دریابید که Google Cloud چگونه به داده‌های هوش مصنوعی نزدیک می‌شود، کسب‌وکار شما چه معیارهایی را برای حفظ حریم‌خصوصی باید در نظر داشته باشد که به هوش مصنوعی مولد می‌رسد و چگونه می‌توانید یک برنامه یادگیری ماشینی را وادار کنید که داده‌های افراد را «لغو یادگیری» کند. در حالی که تیم‌های Google Cloud و Bard همیشه روی پروژه‌های مشابهی دست ندارند، توصیه‌های یکسانی برای استفاده از Bard، رقبای آن مانند ChatGPT یا یک سرویس خصوصی که توسط آن شرکت شما می‌تواند چت ربات مکالمه خود را بسازد، صدق می‌کند.

پرش به:

نحوه رویکرد Google Cloud با استفاده از داده های شخصی در محصولات هوش مصنوعی

Google Cloud با پوشش دادن چنین داده‌هایی تحت توافقنامه Google Cloud Platform موجود، با استفاده از داده‌های شخصی در محصولات هوش مصنوعی رویکرد می‌کند. (Bard و Cloud AI هر دو تحت این قرارداد هستند.) Google شفاف است که داده‌های وارد شده به Bard جمع‌آوری شده و برای «ارائه، بهبود و توسعه محصولات و خدمات Google و فناوری‌های یادگیری ماشینی»، از جمله هر دوی موارد در معرض دید عموم، استفاده خواهد شد. رابط چت Bard و محصولات سازمانی Google Cloud.

شاید این مقاله را هم دوست داشته باشید :  هوش مصنوعی مولد می تواند سالانه 4.4 تریلیون دلار به اقتصاد جهانی اضافه کند

بهشاد بهزادی، معاون مهندسی Google Cloud در ایمیلی به TechRepublic گفت: «ما هم شجاعانه و هم مسئولانه با هوش مصنوعی برخورد می‌کنیم و می‌دانیم که همه مشتریان حق کنترل کامل بر نحوه استفاده از داده‌هایشان را دارند.

Google Cloud سه محصول مولد هوش مصنوعی می‌سازد: ابزار مرکز تماس CCAI Platform، Generative AI App Builder و Vertex AI Portfolio که مجموعه‌ای از ابزارها برای استقرار و ساخت مدل‌های یادگیری ماشینی است.

بهزادی خاطرنشان کرد که Google Cloud تلاش می‌کند تا مطمئن شود که «پاسخ‌های محصولات هوش مصنوعی آن مبتنی بر واقعیت و مطابق با برند شرکت است و هوش مصنوعی مولد به شدت با منطق تجاری، مدیریت داده‌ها و رژیم‌های حقوقی ادغام شده است».

ببینید: ساخت مدل‌های هوش مصنوعی مولد خصوصی می‌تواند برخی از مشکلات حفظ حریم خصوصی را حل کند، اما گران است. (TechRepublic)

هوش مصنوعی Vertex Google Cloud به شرکت ها این امکان را می دهد که مدل های پایه را با داده های خود تنظیم کنند. بهزادی گفت: زمانی که یک شرکت یک مدل پایه را در Vertex AI تنظیم می کند، داده های خصوصی خصوصی نگه داشته می شود و هرگز در مجموعه آموزشی مدل پایه استفاده نمی شود.

کسب‌وکارها باید در مورد استفاده از چت ربات‌های هوش مصنوعی عمومی در نظر بگیرند

بهزادی گفت: کسب‌وکارهایی که از چت ربات‌های هوش مصنوعی عمومی استفاده می‌کنند «باید مراقب باشند که مشتریان را در اولویت قرار دهند و اطمینان حاصل کنند که استراتژی هوش مصنوعی آن‌ها، از جمله ربات‌های گفتگو، بر روی یک استراتژی مدیریت داده به خوبی تعریف شده ساخته شده و با آن یکپارچه شده است».

ببینید: حاکمیت داده چگونه به سازمان ها سود می رساند (TechRepublic)

او گفت که رهبران کسب‌وکار باید چت‌ربات‌های هوش مصنوعی عمومی را با مجموعه‌ای از منطق تجاری و قوانینی که اطمینان حاصل می‌کند که پاسخ‌ها برای برند مناسب هستند، یکپارچه کنند. این قوانین ممکن است شامل اطمینان از روشن بودن منبع داده‌هایی که چت ربات به آن استناد می‌کند و مورد تأیید شرکت باشد، باشد. بهزادی گفت که جستجوی عمومی در اینترنت فقط باید یک «بازگشت» باشد.

شاید این مقاله را هم دوست داشته باشید :  اینگونه است که هوش مصنوعی مولد اقتصاد گیگ را برای بهتر شدن تغییر خواهد داد

بهزادی توصیه کرد طبیعتاً شرکت‌ها باید از مدل‌های هوش مصنوعی نیز استفاده کنند که برای کاهش توهم یا دروغ‌گویی تنظیم شده‌اند.

به عنوان مثال، OpenAI در حال تحقیق در مورد روش هایی برای قابل اعتمادتر کردن ChatGPT از طریق فرآیندی است که به عنوان نظارت فرآیند شناخته می شود. این فرآیند شامل پاداش دادن به مدل هوش مصنوعی برای پیروی از خط استدلال مورد نظر به جای ارائه پاسخ نهایی صحیح است. با این حال، این کار در حال انجام است و نظارت بر فرآیند در حال حاضر در ChatGPT گنجانده نشده است.

کارمندانی که از هوش مصنوعی یا ربات‌های چت برای کار استفاده می‌کنند باید پاسخ‌ها را دوباره بررسی کنند.

او گفت: «برای کسب‌وکارها مهم است که به جنبه مردمی توجه کنند، اطمینان حاصل شود که دستورالعمل‌ها و فرآیندهای مناسبی برای آموزش کارکنان در مورد بهترین شیوه‌ها برای استفاده از چت ربات‌های هوش مصنوعی عمومی وجود دارد.»

ببینید: چگونه از هوش مصنوعی مولد برای ایده‌های خلاقانه در محل کار استفاده کنیم (TechRepublic)

عدم یادگیری ماشین کرک

یکی دیگر از راه‌های محافظت از داده‌های حساسی که می‌توانند به برنامه‌های هوش مصنوعی وارد شوند، پاک کردن کامل آن داده‌ها پس از پایان مکالمه است. اما انجام این کار دشوار است.

در اواخر ژوئن 2023، گوگل رقابتی را برای چیزی متفاوت اعلام کرد: حذف یادگیری ماشینی، یا اطمینان از حذف داده های حساس از مجموعه های آموزشی هوش مصنوعی برای مطابقت با استانداردهای مقررات جهانی داده مانند GDPR. این می تواند چالش برانگیز باشد زیرا شامل ردیابی اینکه آیا از داده های یک شخص خاص برای آموزش یک مدل یادگیری ماشین استفاده شده است یا خیر.

گوگل در یک پست وبلاگی نوشت: «علاوه بر حذف ساده آن از پایگاه‌های داده‌ای که در آن ذخیره می‌شود، نیاز به پاک کردن تأثیر آن داده‌ها بر سایر مصنوعات مانند مدل‌های آموزش ماشینی آموزش‌دیده نیز دارد».

این مسابقه از 28 ژوئن تا اواسط سپتامبر 2023 برگزار می شود.

امیدواریم از این مقاله مجله هشت پیک نیز استفاده لازم را کرده باشید و در صورت تمایل آنرا با دوستان خود به اشتراک بگذارید و با امتیاز از قسمت پایین و درج نظرات باعث دلگرمی مجموعه مجله 8pic باشید

5/5 - (1 امتیاز)

لینک کوتاه مقاله : https://5ia.ir/tnJvRj
کوتاه کننده لینک
کد QR :
اشتراک گذاری

شاید این مطالب را هم دوست داشته باشید

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *