چگونه گوگل داده ها را هنگام استفاده از چت ربات های هوش مصنوعی مولد ایمن نگه می دارد
به گزارش مجله هشت پیک چگونه گوگل داده ها را هنگام استفاده از چت ربات های هوش مصنوعی مولد ایمن نگه می دارد
که در این بخش به محتوای این خبر با شما کاربران گرامی خواهیم پرداخت
بهشاد بهزادی گوگل در مورد نحوه استفاده از چت ربات های هوش مصنوعی بدون به خطر انداختن اطلاعات شرکت می سنجید.
Google's Bard، یکی از برنامههای کاربردی مولد هوش مصنوعی امروزی، با ذرهای نمک در شرکت مورد استفاده قرار میگیرد. رویترز از طریق اسناد داخلی فاش شده دریافت، در ژوئن 2023، گوگل از کارکنان خود خواست که مطالب محرمانه را به Bard وارد نکنند. گزارش شده است که به مهندسان دستور داده شده است که از کد نوشته شده توسط چت بات استفاده نکنند.
شرکتهایی از جمله سامسونگ و آمازون استفاده از چت رباتهای هوش مصنوعی مولد عمومی را به دلیل نگرانیهای مشابه در مورد ورود اطلاعات محرمانه به دادههای خصوصی ممنوع کردهاند.
دریابید که Google Cloud چگونه به دادههای هوش مصنوعی نزدیک میشود، کسبوکار شما چه معیارهایی را برای حفظ حریمخصوصی باید در نظر داشته باشد که به هوش مصنوعی مولد میرسد و چگونه میتوانید یک برنامه یادگیری ماشینی را وادار کنید که دادههای افراد را «لغو یادگیری» کند. در حالی که تیمهای Google Cloud و Bard همیشه روی پروژههای مشابهی دست ندارند، توصیههای یکسانی برای استفاده از Bard، رقبای آن مانند ChatGPT یا یک سرویس خصوصی که توسط آن شرکت شما میتواند چت ربات مکالمه خود را بسازد، صدق میکند.
پرش به:
نحوه رویکرد Google Cloud با استفاده از داده های شخصی در محصولات هوش مصنوعی
Google Cloud با پوشش دادن چنین دادههایی تحت توافقنامه Google Cloud Platform موجود، با استفاده از دادههای شخصی در محصولات هوش مصنوعی رویکرد میکند. (Bard و Cloud AI هر دو تحت این قرارداد هستند.) Google شفاف است که دادههای وارد شده به Bard جمعآوری شده و برای «ارائه، بهبود و توسعه محصولات و خدمات Google و فناوریهای یادگیری ماشینی»، از جمله هر دوی موارد در معرض دید عموم، استفاده خواهد شد. رابط چت Bard و محصولات سازمانی Google Cloud.
بهشاد بهزادی، معاون مهندسی Google Cloud در ایمیلی به TechRepublic گفت: «ما هم شجاعانه و هم مسئولانه با هوش مصنوعی برخورد میکنیم و میدانیم که همه مشتریان حق کنترل کامل بر نحوه استفاده از دادههایشان را دارند.
Google Cloud سه محصول مولد هوش مصنوعی میسازد: ابزار مرکز تماس CCAI Platform، Generative AI App Builder و Vertex AI Portfolio که مجموعهای از ابزارها برای استقرار و ساخت مدلهای یادگیری ماشینی است.
بهزادی خاطرنشان کرد که Google Cloud تلاش میکند تا مطمئن شود که «پاسخهای محصولات هوش مصنوعی آن مبتنی بر واقعیت و مطابق با برند شرکت است و هوش مصنوعی مولد به شدت با منطق تجاری، مدیریت دادهها و رژیمهای حقوقی ادغام شده است».
ببینید: ساخت مدلهای هوش مصنوعی مولد خصوصی میتواند برخی از مشکلات حفظ حریم خصوصی را حل کند، اما گران است. (TechRepublic)
هوش مصنوعی Vertex Google Cloud به شرکت ها این امکان را می دهد که مدل های پایه را با داده های خود تنظیم کنند. بهزادی گفت: زمانی که یک شرکت یک مدل پایه را در Vertex AI تنظیم می کند، داده های خصوصی خصوصی نگه داشته می شود و هرگز در مجموعه آموزشی مدل پایه استفاده نمی شود.
کسبوکارها باید در مورد استفاده از چت رباتهای هوش مصنوعی عمومی در نظر بگیرند
بهزادی گفت: کسبوکارهایی که از چت رباتهای هوش مصنوعی عمومی استفاده میکنند «باید مراقب باشند که مشتریان را در اولویت قرار دهند و اطمینان حاصل کنند که استراتژی هوش مصنوعی آنها، از جمله رباتهای گفتگو، بر روی یک استراتژی مدیریت داده به خوبی تعریف شده ساخته شده و با آن یکپارچه شده است».
ببینید: حاکمیت داده چگونه به سازمان ها سود می رساند (TechRepublic)
او گفت که رهبران کسبوکار باید چترباتهای هوش مصنوعی عمومی را با مجموعهای از منطق تجاری و قوانینی که اطمینان حاصل میکند که پاسخها برای برند مناسب هستند، یکپارچه کنند. این قوانین ممکن است شامل اطمینان از روشن بودن منبع دادههایی که چت ربات به آن استناد میکند و مورد تأیید شرکت باشد، باشد. بهزادی گفت که جستجوی عمومی در اینترنت فقط باید یک «بازگشت» باشد.
بهزادی توصیه کرد طبیعتاً شرکتها باید از مدلهای هوش مصنوعی نیز استفاده کنند که برای کاهش توهم یا دروغگویی تنظیم شدهاند.
به عنوان مثال، OpenAI در حال تحقیق در مورد روش هایی برای قابل اعتمادتر کردن ChatGPT از طریق فرآیندی است که به عنوان نظارت فرآیند شناخته می شود. این فرآیند شامل پاداش دادن به مدل هوش مصنوعی برای پیروی از خط استدلال مورد نظر به جای ارائه پاسخ نهایی صحیح است. با این حال، این کار در حال انجام است و نظارت بر فرآیند در حال حاضر در ChatGPT گنجانده نشده است.
کارمندانی که از هوش مصنوعی یا رباتهای چت برای کار استفاده میکنند باید پاسخها را دوباره بررسی کنند.
او گفت: «برای کسبوکارها مهم است که به جنبه مردمی توجه کنند، اطمینان حاصل شود که دستورالعملها و فرآیندهای مناسبی برای آموزش کارکنان در مورد بهترین شیوهها برای استفاده از چت رباتهای هوش مصنوعی عمومی وجود دارد.»
ببینید: چگونه از هوش مصنوعی مولد برای ایدههای خلاقانه در محل کار استفاده کنیم (TechRepublic)
عدم یادگیری ماشین کرک
یکی دیگر از راههای محافظت از دادههای حساسی که میتوانند به برنامههای هوش مصنوعی وارد شوند، پاک کردن کامل آن دادهها پس از پایان مکالمه است. اما انجام این کار دشوار است.
در اواخر ژوئن 2023، گوگل رقابتی را برای چیزی متفاوت اعلام کرد: حذف یادگیری ماشینی، یا اطمینان از حذف داده های حساس از مجموعه های آموزشی هوش مصنوعی برای مطابقت با استانداردهای مقررات جهانی داده مانند GDPR. این می تواند چالش برانگیز باشد زیرا شامل ردیابی اینکه آیا از داده های یک شخص خاص برای آموزش یک مدل یادگیری ماشین استفاده شده است یا خیر.
گوگل در یک پست وبلاگی نوشت: «علاوه بر حذف ساده آن از پایگاههای دادهای که در آن ذخیره میشود، نیاز به پاک کردن تأثیر آن دادهها بر سایر مصنوعات مانند مدلهای آموزش ماشینی آموزشدیده نیز دارد».
این مسابقه از 28 ژوئن تا اواسط سپتامبر 2023 برگزار می شود.
امیدواریم از این مقاله مجله هشت پیک نیز استفاده لازم را کرده باشید و در صورت تمایل آنرا با دوستان خود به اشتراک بگذارید و با امتیاز از قسمت پایین و درج نظرات باعث دلگرمی مجموعه مجله 8pic باشید
لینک کوتاه مقاله : https://5ia.ir/tnJvRj
کوتاه کننده لینک
کد QR :
آخرین دیدگاهها