نقص امنیتی Google Bard می تواند کلاهبرداران را به خدمات خود جذب کند

زمان مطالعه: 2 دقیقه

با مجله هشت پیک با مقاله ی نقص امنیتی Google Bard می تواند کلاهبرداران را به خدمات خود جذب کند
همراه ما باشید

مدل‌های هوش مصنوعی خطراتی دارند و این نقص امنیتی Google Bard برخی از آنها را برجسته می‌کند. نقصی که بارد دارد به برخی از بازیگران بد این امکان را می دهد که در هنگام فیشینگ خلاقیت بیشتری داشته باشند. این ترسناک به نظر می رسد، اما برخی از کارشناسان امنیت سایبری قبلاً این نقص را مورد آزمایش قرار داده اند و نتایج تکان دهنده است.

با ورود شرکت های بزرگ فناوری به صنعت هوش مصنوعی، نگرانی های امنیتی دائمی وجود دارد. این شرکت‌ها چگونه مدل‌های هوش مصنوعی خود را آموزش می‌دهند و چه نوع اطلاعاتی از آنها می‌توان به دست آورد؟ آیا این ابزارها فقط پنجره دیگری هستند که از طریق آن کلاهبرداران و بازیگران بد می توانند اطلاعات مورد نیاز خود را برای حمله به افراد دیگر بدست آورند؟

نگرانی ها در مورد هوش مصنوعی به سرعت در حال افزایش است و برای رقبای برتر در صنعت مهم است که به آن توجه کنند. شرکت هایی مانند OpenAI، بنیانگذاران ChatGPT، در حال آموزش مدل هوش مصنوعی خود هستند تا از درخواست های خاص کاربران جلوگیری کنند. گوگل به نوبه خود کمی کند عمل می کند تا مدل هوش مصنوعی خود را برای درک و اجتناب از برخی درخواست ها آموزش دهد.

این نقص امنیتی Google Bard یک دلیل واقعی برای نگرانی است و باید برطرف شود

تیم تحقیقاتی امنیت سایبری Check Point نقصی را در مدل هوش مصنوعی گوگل کشف کرده است. این تحقیق مقایسه ای بین گوگل بارد و ChatGPT. هدف آن این بود که بفهمد Bard از نظر امنیتی چگونه با ChatGPT مقایسه می شود.

با انجام این آزمایش، تیم به دنبال واکنش این مدل‌های هوش مصنوعی به درخواست‌های خاص بود. قبل از این تحقیق، تیم می‌دانست که ChatGPT دارای حفاظت امنیتی محافظتی در برابر پاسخ‌های خاص است. اما آنها چندان مطمئن نبودند که Google Bard چیزی مشابه را در محل خود داشته باشد.

این تیم از Google Bard خواست تا ایمیل‌های فیشینگ و چند داده مخرب دیگر تولید کند. این سوال که مستقیماً از مدل هوش مصنوعی پرسیده شد، هیچ پاسخی نداشت، اما بیان مجدد آن پاسخ‌های زیادی به آنها داد. از طرف دیگر، ChatGPT همان درخواست را غیرقانونی بودن برچسب گذاری کرد، بنابراین هیچ پاسخی نداد.

گوگل بارد ارسال ایمیل های فیشینگ، کیلاگرهای بدافزار و برخی از کدهای باج افزار اولیه نگران کننده است. کلاهبرداران و بازیگران بد می توانند از خدمات آن برای ارتکاب جرایم سایبری استفاده کنند. با در دسترس بودن این ابزار برای همه، زمان زیادی طول نمی کشد تا بازیگران بد شروع به استفاده از آن برای ایجاد یک تهدید در اینترنت کنند.

گوگل باید بنشیند و بررسی کند که چگونه از سوء استفاده کاربران Bard از خدمات آن جلوگیری می کند. چیزهای خوبی وجود دارد که مدل های هوش مصنوعی مولد می توانند انجام دهند، اما می توان از آنها به دلایل بد نیز استفاده کرد. مسلح کردن بازیگران بد با ابزارهای مولد نامحدود هوش مصنوعی تنها به معنای آسیب به کاربران بی گناه اینترنت است.

امیدواریم از این مقاله مجله هشت پیک نیز استفاده لازم را کرده باشید و در صورت تمایل آنرا با دوستان خود به اشتراک بگذارید و با امتیاز از قسمت پایین و درج نظرات باعث دلگرمی مجموعه مجله 8pic باشید

امتیاز بدهید

لینک کوتاه مقاله : https://5ia.ir/gynQqQ
کوتاه کننده لینک
کد QR :
اشتراک گذاری

شاید این مطالب را هم دوست داشته باشید

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *