هوش مصنوعی بهداشت اولیه امنیت داده ها را حیاتی می کند

زمان مطالعه: 6 دقیقه

مفهوم امنیت داده ها

گتی ایماژ/اسکار وانگ

وسواس مداوم با (AI)، و به طور خاص هوش مصنوعی مولد، نیاز به تمرکز کسب‌وکارها بر امنیت را نشان می‌دهد – اما اصول اساسی حفاظت از داده‌ها هنوز تا حدودی وجود ندارد.

که عمدتاً توسط ChatGPT OpenAI تحریک شده است، علاقه فزاینده به هوش مصنوعی مولد سازمان ها را وادار کرده است تا به نحوه استفاده از این فناوری نگاه کنند.

همچنین: نحوه استفاده از ChatGPT: همه چیزهایی که باید بدانید

تقریباً نیمی (43٪) از مدیران عامل می گویند که سازمان های آنها در حال حاضر از هوش مصنوعی مولد برای تصمیم گیری های استراتژیک استفاده می کنند، در حالی که 36٪ از این فناوری برای تسهیل تصمیم گیری های عملیاتی استفاده می کنند. بر اساس یک مطالعه IBM که این هفته منتشر شد، نیمی از آنها آن را با محصولات و خدمات خود ادغام می کنند. این یافته ها بر اساس مصاحبه با 3000 مدیر عامل در 30 بازار جهانی از جمله سنگاپور و ایالات متحده است.

با این حال، مدیران عامل به خطرات بالقوه هوش مصنوعی مانند تعصب، اخلاق و ایمنی توجه دارند. حدود 57 درصد می گویند که نگران امنیت داده ها هستند و 48 درصد نگران دقت یا سوگیری داده ها هستند. این مطالعه همچنین نشان می‌دهد که 76 درصد معتقدند امنیت سایبری مؤثر در سراسر اکوسیستم‌های کسب‌وکارشان نیازمند استانداردها و حاکمیت ثابت است.

حدود 56 درصد می گویند که حداقل یک سرمایه گذاری عمده را به دلیل عدم وجود استانداردهای یکسان متوقف می کنند. فقط 55٪ مطمئن هستند که سازمان آنها می تواند به طور دقیق و جامع اطلاعاتی را که سهامداران در مورد امنیت داده ها و حریم خصوصی می خواهند گزارش دهد.

همچنین: ChatGPT و هوش مصنوعی جدید به روش های هیجان انگیز و ترسناکی امنیت سایبری را ویران می کنند.

این عدم اعتماد مستلزم بازنگری در نحوه مدیریت تهدیدات بالقوه است. Avivah Litan، معاون تحلیلگر گارتنر، در پستی که در مورد خطرات مختلف مرتبط با هوش مصنوعی صحبت می‌کند، گفت: جدا از فعال کردن تهدیدات پیشرفته‌تر مهندسی اجتماعی و فیشینگ، ابزارهای هوش مصنوعی تولید کدهای مخرب را برای هکرها آسان‌تر می‌کنند.

لیتان خاطرنشان کرد، در حالی که فروشندگانی که مدل‌های پایه هوش مصنوعی مولد را ارائه می‌کنند می‌گویند که مدل‌های خود را برای رد درخواست‌های مخرب امنیت سایبری آموزش می‌دهند، آنها ابزارهایی را برای بررسی مؤثر کنترل‌های امنیتی اعمال شده در اختیار مشتریان قرار نمی‌دهند.

کارمندان نیز می‌توانند هنگام تعامل با ابزارهای چت ربات هوش مصنوعی، داده‌های حساس و اختصاصی را در معرض نمایش بگذارند. این تحلیلگر گفت: «این برنامه‌ها ممکن است به‌طور نامحدود اطلاعاتی را که از طریق ورودی‌های کاربر گرفته شده‌اند ذخیره کنند و حتی از اطلاعات برای آموزش مدل‌های دیگر استفاده کنند، که محرمانگی را بیشتر به خطر می‌اندازد». چنین اطلاعاتی همچنین ممکن است در صورت نقض امنیتی به دست افراد نادرست بیفتد.

همچنین: به گفته بنیانگذار Stability.ai، چرا منبع باز برای رفع ترس از هوش مصنوعی ضروری است

لیتان از سازمان‌ها خواست تا با ابزارهای جدیدی که برای مدیریت داده‌ها و جریان‌های پردازش بین کاربران و کسب‌وکارهایی که میزبان مدل‌های پایه هوش مصنوعی مولد هستند، استراتژی‌ای را برای مدیریت ریسک‌های نوظهور و الزامات امنیتی ایجاد کنند.

او گفت که شرکت‌ها باید استفاده‌های غیرمجاز از ابزارهایی مانند ChatGPT را نظارت کنند و از کنترل‌های امنیتی و داشبوردهای موجود برای شناسایی تخلفات خط‌مشی استفاده کنند. به عنوان مثال، فایروال ها می توانند دسترسی کاربر را مسدود کنند، در حالی که اطلاعات امنیتی و سیستم های مدیریت رویداد می توانند گزارش های رویداد را برای نقض خط مشی نظارت کنند. دروازه‌های وب امنیتی همچنین می‌توانند برای نظارت بر تماس‌های برنامه‌نویسی برنامه‌نویسی غیرمجاز (API) مستقر شوند.

شاید این مقاله را هم دوست داشته باشید :  آیا می خواهید چت ربات هوش مصنوعی خود را بسازید؟ به HuggingChat منبع باز سلام کنید

اکثر سازمان ها هنوز فاقد اصول اولیه هستند

با این حال، به گفته تری ری، معاون ارشد امنیت داده ها و مدیر ارشد فناوری اطلاعات در Imperva، مهمتر از همه، اصول اساسی هستند.

این فروشنده امنیتی اکنون تیمی دارد که به نظارت بر پیشرفت‌های هوش مصنوعی مولد اختصاص دارد تا راه‌هایی را که می‌توان آن را در فناوری خود اعمال کرد، شناسایی کرد. ری گفت که این گروه داخلی یک سال پیش وجود نداشت، اما Imperva برای مدت طولانی از یادگیری ماشینی استفاده می‌کرد و به رشد سریع هوش مصنوعی مولد اشاره کرد.

همچنین: ChatGPT چگونه کار می کند؟

تیم نظارت همچنین استفاده از برنامه هایی مانند ChatGPT را در بین کارمندان بررسی می کند تا اطمینان حاصل شود که این ابزارها به درستی و در چارچوب سیاست های شرکت استفاده می شوند.

Ray گفت که هنوز خیلی زود است که مشخص شود مدل هوش مصنوعی در حال ظهور چگونه می تواند ادغام شود، و افزود که برخی از احتمالات ممکن است در طول هکاتون سالانه پایان سال فروشنده ظاهر شود، زمانی که کارمندان احتمالاً ایده هایی در مورد چگونگی استفاده از هوش مصنوعی مولد ارائه می دهند.

همچنین ذکر این نکته حائز اهمیت است که تا کنون، در دسترس بودن هوش مصنوعی مولد به هیچ تغییر قابل توجهی در نحوه حمله به سازمان‌ها منجر نشده است، زیرا بازیگران تهدید همچنان عمدتاً به میوه‌های کم‌هزینه پایبند هستند و به دنبال سیستم‌هایی هستند که در برابر سوء استفاده‌های شناخته شده بدون اصلاح باقی می‌مانند. .

ری در پاسخ به این سوال که فکر می‌کند چگونه عوامل تهدید ممکن است از هوش مصنوعی مولد استفاده کنند، پیشنهاد کرد که می‌توان آن را در کنار ابزارهای دیگر برای بازرسی و شناسایی خطاها یا آسیب‌پذیری‌های کدنویسی مستقر کرد.

API ها، به ویژه، اهداف مهمی هستند زیرا امروزه به طور گسترده مورد استفاده قرار می گیرند و اغلب دارای آسیب پذیری هستند. به عنوان مثال، مجوز سطح شیء شکسته (BOLA)، یکی از مهمترین تهدیدات امنیتی API است که توسط Open Worldwide Application Security Project شناسایی شده است. در حوادث BOLA، مهاجمان از نقاط ضعف در نحوه احراز هویت کاربران سوء استفاده می کنند و در به دست آوردن درخواست های API برای دسترسی به اشیاء داده موفق می شوند.

Ray گفت که چنین نظارت‌هایی بر نیاز سازمان‌ها به درک داده‌هایی که روی هر API جریان می‌یابد تاکید می‌کند و افزود که این حوزه چالشی رایج برای کسب‌وکارها است. او خاطرنشان کرد که اکثر آنها حتی نمی دانند کجا یا چند API در سراسر سازمان اجرا می کنند.

همچنین: مردم اکنون برای عیب یابی مشکلات فنی خود به ChatGPT روی می آورند

احتمالاً یک API برای هر برنامه‌ای که وارد کسب‌وکار می‌شود وجود دارد، و تعداد آن‌ها در میان دستورات سازمان‌ها برای به اشتراک گذاشتن داده‌ها، مانند اطلاعات بهداشتی و مالی، بیشتر می‌شود. او گفت که برخی از دولت ها چنین خطراتی را تشخیص می دهند و مقرراتی را برای اطمینان از استقرار API ها با پادمان های امنیتی لازم وضع کرده اند.

شاید این مقاله را هم دوست داشته باشید :  کلید نظارت انسانی برای صادق نگه داشتن هوش مصنوعی

و در مورد امنیت داده ها، سازمان ها باید اصول اولیه را به درستی دریافت کنند. تأثیر از دست دادن داده ها برای اکثر مشاغل قابل توجه است. به عنوان نگهبان داده ها، شرکت ها باید بدانند که برای محافظت از داده ها چه کاری باید انجام شود.

در یک مطالعه جهانی دیگر از IBM که از 3000 مدیر ارشد داده نظرسنجی انجام شد، 61 درصد معتقدند که داده های شرکت آنها ایمن و محافظت شده است. در مورد چالش‌های مدیریت داده‌ها، 47 درصد به قابلیت اطمینان اشاره می‌کنند، در حالی که 36 درصد مالکیت داده نامشخص و 33 درصد می‌گویند سیلوهای داده یا عدم یکپارچگی داده‌ها.

محبوبیت فزاینده هوش مصنوعی مولد ممکن است توجه را به داده ها معطوف کرده باشد، اما همچنین نیاز شرکت ها را برای دریافت اصول اولیه به درستی برجسته می کند.

همچنین: با GPT-4، OpenAI رازداری در مقابل افشا را انتخاب می کند

ری گفت که بسیاری هنوز حتی مراحل اولیه را تعیین نکرده‌اند، و اشاره کرد که اکثر شرکت‌ها معمولاً تنها یک سوم از ذخیره‌سازی داده‌ها و دریاچه‌های خود را نظارت می‌کنند.

“امنیت در مورد [having] دید. هکرها راه کمترین مقاومت را در پیش خواهند گرفت.”

همچنین: بر اساس این مطالعه، هوش مصنوعی مولد می‌تواند برخی از کارگران را بسیار بهره‌ورتر کند

یک مطالعه Gigamon که ماه گذشته منتشر شد نشان داد که 31٪ از نقض‌ها پس از این واقعیت شناسایی می‌شوند، یا زمانی که داده‌های به خطر افتاده در وب تاریک ظاهر می‌شوند، یا زمانی که فایل‌ها غیرقابل دسترس می‌شوند یا زمانی که کاربران عملکرد ضعیف برنامه را تجربه می‌کنند. بر اساس گزارش ژوئن که از بیش از 1000 نفر پیشرو در حوزه فناوری اطلاعات و امنیت در سنگاپور، استرالیا، EMEA و ایالات متحده نظرسنجی کرد، این نسبت برای پاسخ دهندگان در استرالیا و 48 درصد در ایالات متحده بالاتر بود.

این ارقام علیرغم اینکه 94 درصد از پاسخ دهندگان گفتند که ابزارها و فرآیندهای امنیتی آنها دید و بینش را در مورد زیرساخت فناوری اطلاعات آنها ارائه می دهد، بود. حدود 90 درصد گفتند که در 18 ماه گذشته یک نقض را تجربه کرده اند.

در مورد بزرگترین نگرانی های خود، 56 درصد به نقاط کور غیرمنتظره اشاره کردند. حدود 70 درصد اعتراف کردند که در داده های رمزگذاری شده دیده نمی شوند، در حالی که 35 درصد گفتند که بینش محدودی در مورد کانتینرها دارند. نیمی از آنها در دانستن اینکه حساس‌ترین داده‌هایشان کجا ذخیره شده و اطلاعات چگونه ایمن شده است، اطمینان نداشتند.

ایان فارکهار، مدیر ارشد فناوری Gigamon، گفت: «این یافته‌ها روندی از شکاف‌های مهم در دید از داخل محوطه تا فضای ابری را نشان می‌دهد، که خطر آن ظاهراً توسط رهبران فناوری اطلاعات و امنیت در سراسر جهان اشتباه درک شده است.»

“بسیاری این نقاط کور را به عنوان یک تهدید نمی شناسند… با توجه به اینکه بیش از 50 درصد از CISOهای جهانی در شب به دلیل سوء استفاده از نقاط کور غیرمنتظره نگه داشته می شوند، ظاهراً اقدامات کافی برای اصلاح شکاف های دید بحرانی انجام نشده است.”

امتیاز بدهید

لینک کوتاه مقاله : https://5ia.ir/kAw
کوتاه کننده لینک
کد QR :
اشتراک گذاری

شاید این مطالب را هم دوست داشته باشید

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *