هوش مصنوعی بهداشت اولیه امنیت داده ها را حیاتی می کند
وسواس مداوم با هوش مصنوعی (AI)، و به طور خاص هوش مصنوعی مولد، نیاز به تمرکز کسبوکارها بر امنیت را نشان میدهد – اما اصول اساسی حفاظت از دادهها هنوز تا حدودی وجود ندارد.
که عمدتاً توسط ChatGPT OpenAI تحریک شده است، علاقه فزاینده به هوش مصنوعی مولد سازمان ها را وادار کرده است تا به نحوه استفاده از این فناوری نگاه کنند.
همچنین: نحوه استفاده از ChatGPT: همه چیزهایی که باید بدانید
تقریباً نیمی (43٪) از مدیران عامل می گویند که سازمان های آنها در حال حاضر از هوش مصنوعی مولد برای تصمیم گیری های استراتژیک استفاده می کنند، در حالی که 36٪ از این فناوری برای تسهیل تصمیم گیری های عملیاتی استفاده می کنند. بر اساس یک مطالعه IBM که این هفته منتشر شد، نیمی از آنها آن را با محصولات و خدمات خود ادغام می کنند. این یافته ها بر اساس مصاحبه با 3000 مدیر عامل در 30 بازار جهانی از جمله سنگاپور و ایالات متحده است.
با این حال، مدیران عامل به خطرات بالقوه هوش مصنوعی مانند تعصب، اخلاق و ایمنی توجه دارند. حدود 57 درصد می گویند که نگران امنیت داده ها هستند و 48 درصد نگران دقت یا سوگیری داده ها هستند. این مطالعه همچنین نشان میدهد که 76 درصد معتقدند امنیت سایبری مؤثر در سراسر اکوسیستمهای کسبوکارشان نیازمند استانداردها و حاکمیت ثابت است.
حدود 56 درصد می گویند که حداقل یک سرمایه گذاری عمده را به دلیل عدم وجود استانداردهای یکسان متوقف می کنند. فقط 55٪ مطمئن هستند که سازمان آنها می تواند به طور دقیق و جامع اطلاعاتی را که سهامداران در مورد امنیت داده ها و حریم خصوصی می خواهند گزارش دهد.
همچنین: ChatGPT و هوش مصنوعی جدید به روش های هیجان انگیز و ترسناکی امنیت سایبری را ویران می کنند.
این عدم اعتماد مستلزم بازنگری در نحوه مدیریت تهدیدات بالقوه است. Avivah Litan، معاون تحلیلگر گارتنر، در پستی که در مورد خطرات مختلف مرتبط با هوش مصنوعی صحبت میکند، گفت: جدا از فعال کردن تهدیدات پیشرفتهتر مهندسی اجتماعی و فیشینگ، ابزارهای هوش مصنوعی تولید کدهای مخرب را برای هکرها آسانتر میکنند.
لیتان خاطرنشان کرد، در حالی که فروشندگانی که مدلهای پایه هوش مصنوعی مولد را ارائه میکنند میگویند که مدلهای خود را برای رد درخواستهای مخرب امنیت سایبری آموزش میدهند، آنها ابزارهایی را برای بررسی مؤثر کنترلهای امنیتی اعمال شده در اختیار مشتریان قرار نمیدهند.
کارمندان نیز میتوانند هنگام تعامل با ابزارهای چت ربات هوش مصنوعی، دادههای حساس و اختصاصی را در معرض نمایش بگذارند. این تحلیلگر گفت: «این برنامهها ممکن است بهطور نامحدود اطلاعاتی را که از طریق ورودیهای کاربر گرفته شدهاند ذخیره کنند و حتی از اطلاعات برای آموزش مدلهای دیگر استفاده کنند، که محرمانگی را بیشتر به خطر میاندازد». چنین اطلاعاتی همچنین ممکن است در صورت نقض امنیتی به دست افراد نادرست بیفتد.
همچنین: به گفته بنیانگذار Stability.ai، چرا منبع باز برای رفع ترس از هوش مصنوعی ضروری است
لیتان از سازمانها خواست تا با ابزارهای جدیدی که برای مدیریت دادهها و جریانهای پردازش بین کاربران و کسبوکارهایی که میزبان مدلهای پایه هوش مصنوعی مولد هستند، استراتژیای را برای مدیریت ریسکهای نوظهور و الزامات امنیتی ایجاد کنند.
او گفت که شرکتها باید استفادههای غیرمجاز از ابزارهایی مانند ChatGPT را نظارت کنند و از کنترلهای امنیتی و داشبوردهای موجود برای شناسایی تخلفات خطمشی استفاده کنند. به عنوان مثال، فایروال ها می توانند دسترسی کاربر را مسدود کنند، در حالی که اطلاعات امنیتی و سیستم های مدیریت رویداد می توانند گزارش های رویداد را برای نقض خط مشی نظارت کنند. دروازههای وب امنیتی همچنین میتوانند برای نظارت بر تماسهای برنامهنویسی برنامهنویسی غیرمجاز (API) مستقر شوند.
اکثر سازمان ها هنوز فاقد اصول اولیه هستند
با این حال، به گفته تری ری، معاون ارشد امنیت داده ها و مدیر ارشد فناوری اطلاعات در Imperva، مهمتر از همه، اصول اساسی هستند.
این فروشنده امنیتی اکنون تیمی دارد که به نظارت بر پیشرفتهای هوش مصنوعی مولد اختصاص دارد تا راههایی را که میتوان آن را در فناوری خود اعمال کرد، شناسایی کرد. ری گفت که این گروه داخلی یک سال پیش وجود نداشت، اما Imperva برای مدت طولانی از یادگیری ماشینی استفاده میکرد و به رشد سریع هوش مصنوعی مولد اشاره کرد.
همچنین: ChatGPT چگونه کار می کند؟
تیم نظارت همچنین استفاده از برنامه هایی مانند ChatGPT را در بین کارمندان بررسی می کند تا اطمینان حاصل شود که این ابزارها به درستی و در چارچوب سیاست های شرکت استفاده می شوند.
Ray گفت که هنوز خیلی زود است که مشخص شود مدل هوش مصنوعی در حال ظهور چگونه می تواند ادغام شود، و افزود که برخی از احتمالات ممکن است در طول هکاتون سالانه پایان سال فروشنده ظاهر شود، زمانی که کارمندان احتمالاً ایده هایی در مورد چگونگی استفاده از هوش مصنوعی مولد ارائه می دهند.
همچنین ذکر این نکته حائز اهمیت است که تا کنون، در دسترس بودن هوش مصنوعی مولد به هیچ تغییر قابل توجهی در نحوه حمله به سازمانها منجر نشده است، زیرا بازیگران تهدید همچنان عمدتاً به میوههای کمهزینه پایبند هستند و به دنبال سیستمهایی هستند که در برابر سوء استفادههای شناخته شده بدون اصلاح باقی میمانند. .
ری در پاسخ به این سوال که فکر میکند چگونه عوامل تهدید ممکن است از هوش مصنوعی مولد استفاده کنند، پیشنهاد کرد که میتوان آن را در کنار ابزارهای دیگر برای بازرسی و شناسایی خطاها یا آسیبپذیریهای کدنویسی مستقر کرد.
API ها، به ویژه، اهداف مهمی هستند زیرا امروزه به طور گسترده مورد استفاده قرار می گیرند و اغلب دارای آسیب پذیری هستند. به عنوان مثال، مجوز سطح شیء شکسته (BOLA)، یکی از مهمترین تهدیدات امنیتی API است که توسط Open Worldwide Application Security Project شناسایی شده است. در حوادث BOLA، مهاجمان از نقاط ضعف در نحوه احراز هویت کاربران سوء استفاده می کنند و در به دست آوردن درخواست های API برای دسترسی به اشیاء داده موفق می شوند.
Ray گفت که چنین نظارتهایی بر نیاز سازمانها به درک دادههایی که روی هر API جریان مییابد تاکید میکند و افزود که این حوزه چالشی رایج برای کسبوکارها است. او خاطرنشان کرد که اکثر آنها حتی نمی دانند کجا یا چند API در سراسر سازمان اجرا می کنند.
همچنین: مردم اکنون برای عیب یابی مشکلات فنی خود به ChatGPT روی می آورند
احتمالاً یک API برای هر برنامهای که وارد کسبوکار میشود وجود دارد، و تعداد آنها در میان دستورات سازمانها برای به اشتراک گذاشتن دادهها، مانند اطلاعات بهداشتی و مالی، بیشتر میشود. او گفت که برخی از دولت ها چنین خطراتی را تشخیص می دهند و مقرراتی را برای اطمینان از استقرار API ها با پادمان های امنیتی لازم وضع کرده اند.
و در مورد امنیت داده ها، سازمان ها باید اصول اولیه را به درستی دریافت کنند. تأثیر از دست دادن داده ها برای اکثر مشاغل قابل توجه است. به عنوان نگهبان داده ها، شرکت ها باید بدانند که برای محافظت از داده ها چه کاری باید انجام شود.
در یک مطالعه جهانی دیگر از IBM که از 3000 مدیر ارشد داده نظرسنجی انجام شد، 61 درصد معتقدند که داده های شرکت آنها ایمن و محافظت شده است. در مورد چالشهای مدیریت دادهها، 47 درصد به قابلیت اطمینان اشاره میکنند، در حالی که 36 درصد مالکیت داده نامشخص و 33 درصد میگویند سیلوهای داده یا عدم یکپارچگی دادهها.
محبوبیت فزاینده هوش مصنوعی مولد ممکن است توجه را به داده ها معطوف کرده باشد، اما همچنین نیاز شرکت ها را برای دریافت اصول اولیه به درستی برجسته می کند.
همچنین: با GPT-4، OpenAI رازداری در مقابل افشا را انتخاب می کند
ری گفت که بسیاری هنوز حتی مراحل اولیه را تعیین نکردهاند، و اشاره کرد که اکثر شرکتها معمولاً تنها یک سوم از ذخیرهسازی دادهها و دریاچههای خود را نظارت میکنند.
“امنیت در مورد [having] دید. هکرها راه کمترین مقاومت را در پیش خواهند گرفت.”
همچنین: بر اساس این مطالعه، هوش مصنوعی مولد میتواند برخی از کارگران را بسیار بهرهورتر کند
یک مطالعه Gigamon که ماه گذشته منتشر شد نشان داد که 31٪ از نقضها پس از این واقعیت شناسایی میشوند، یا زمانی که دادههای به خطر افتاده در وب تاریک ظاهر میشوند، یا زمانی که فایلها غیرقابل دسترس میشوند یا زمانی که کاربران عملکرد ضعیف برنامه را تجربه میکنند. بر اساس گزارش ژوئن که از بیش از 1000 نفر پیشرو در حوزه فناوری اطلاعات و امنیت در سنگاپور، استرالیا، EMEA و ایالات متحده نظرسنجی کرد، این نسبت برای پاسخ دهندگان در استرالیا و 48 درصد در ایالات متحده بالاتر بود.
این ارقام علیرغم اینکه 94 درصد از پاسخ دهندگان گفتند که ابزارها و فرآیندهای امنیتی آنها دید و بینش را در مورد زیرساخت فناوری اطلاعات آنها ارائه می دهد، بود. حدود 90 درصد گفتند که در 18 ماه گذشته یک نقض را تجربه کرده اند.
در مورد بزرگترین نگرانی های خود، 56 درصد به نقاط کور غیرمنتظره اشاره کردند. حدود 70 درصد اعتراف کردند که در داده های رمزگذاری شده دیده نمی شوند، در حالی که 35 درصد گفتند که بینش محدودی در مورد کانتینرها دارند. نیمی از آنها در دانستن اینکه حساسترین دادههایشان کجا ذخیره شده و اطلاعات چگونه ایمن شده است، اطمینان نداشتند.
ایان فارکهار، مدیر ارشد فناوری Gigamon، گفت: «این یافتهها روندی از شکافهای مهم در دید از داخل محوطه تا فضای ابری را نشان میدهد، که خطر آن ظاهراً توسط رهبران فناوری اطلاعات و امنیت در سراسر جهان اشتباه درک شده است.»
“بسیاری این نقاط کور را به عنوان یک تهدید نمی شناسند… با توجه به اینکه بیش از 50 درصد از CISOهای جهانی در شب به دلیل سوء استفاده از نقاط کور غیرمنتظره نگه داشته می شوند، ظاهراً اقدامات کافی برای اصلاح شکاف های دید بحرانی انجام نشده است.”
لینک کوتاه مقاله : https://5ia.ir/kAw
کوتاه کننده لینک
کد QR :
آخرین دیدگاهها