تشخیص عمیق دروغین در زمان واقعی: چگونه آزمایشگاه های اینتل از هوش مصنوعی برای مبارزه با اطلاعات نادرست استفاده می کند

زمان مطالعه: 4 دقیقه

با مجله هشت پیک با مقاله ی تشخیص عمیق دروغین در زمان واقعی: چگونه آزمایشگاه های اینتل از برای مبارزه با اطلاعات نادرست استفاده می کند
همراه ما باشید

https://www.youtube.com/watch?v=IXqg6KLLbng

چند سال پیش، دیپ فیک مانند یک فناوری جدید به نظر می رسید که سازندگان آن به قدرت محاسباتی جدی متکی بودند. امروزه، دیپ‌فیک‌ها در همه جا وجود دارند و این پتانسیل را دارند که برای اطلاعات نادرست، هک و سایر اهداف پلید مورد سوء استفاده قرار گیرند.

آزمایشگاه‌های اینتل برای مقابله با این مشکل رو به رشد، فناوری تشخیص عمیق جعلی را در زمان واقعی توسعه داده‌اند. ایلکه دمیر، دانشمند تحقیقاتی ارشد در اینتل، فناوری پشت سرگذاشته‌های عمیق، روش‌های تشخیص اینتل و ملاحظات اخلاقی مربوط به توسعه و اجرای چنین ابزارهایی را توضیح می‌دهد.

همچنین: کارشناس اخلاق هوش مصنوعی می‌گوید رونق امروزی هوش مصنوعی، اگر اکنون اقدام نکنیم، مشکلات اجتماعی را تشدید خواهد کرد.

دیپ فیک ها ویدئوها، گفتار یا تصاویری هستند که در آن بازیگر یا عمل واقعی نیست، بلکه توسط هوش مصنوعی (AI) ایجاد شده است. دیپ‌فیک‌ها از معماری‌های پیچیده یادگیری عمیق، مانند شبکه‌های متخاصم مولد، رمزگذارهای خودکار متغیر، و سایر مدل‌های هوش مصنوعی برای ایجاد محتوای بسیار واقعی و باورپذیر استفاده می‌کنند. این مدل‌ها می‌توانند شخصیت‌های مصنوعی، ویدیوهای همگام‌سازی لب و حتی تبدیل متن به تصویر ایجاد کنند و تشخیص محتوای واقعی و جعلی را به چالش می‌کشند.

اصطلاح دیپ‌فیک گاهی اوقات برای محتوای معتبری که تغییر کرده است به کار می‌رود، مانند ویدیوی سال 2019 از نانسی پلوسی، رئیس سابق مجلس نمایندگان، که برای این که او را مست به نظر برسانند، اصلاح شده است.

تیم Demir به بررسی دیپ فیک های محاسباتی می پردازد، که اشکال مصنوعی محتوای تولید شده توسط ماشین ها هستند. او می‌گوید: «دلیل اینکه به آن دیپ‌فیک می‌گویند این است که این معماری پیچیده یادگیری عمیق در هوش مصنوعی مولد وجود دارد که همه آن محتوا را ایجاد می‌کند.

همچنین: بر اساس یک نظرسنجی، اکثر آمریکایی ها فکر می کنند هوش مصنوعی بشریت را تهدید می کند

مجرمان سایبری و سایر بازیگران بد اغلب از فناوری دیپ فیک سوء استفاده می کنند. برخی از موارد استفاده شامل اطلاعات غلط سیاسی، محتوای بزرگسالان با حضور افراد مشهور یا افراد غیر موافق، دستکاری بازار، و جعل هویت برای منافع پولی است. این تأثیرات منفی بر نیاز به روش‌های مؤثر تشخیص عمیق جعلی تأکید می‌کند.

شاید این مقاله را هم دوست داشته باشید :  چگونه گوگل داده ها را هنگام استفاده از چت ربات های هوش مصنوعی مولد ایمن نگه می دارد

آزمایشگاه های اینتل یکی از اولین پلتفرم های تشخیص دیپ فیک بلادرنگ در جهان را توسعه داده است. این فناوری به جای جستجوی مصنوعات ساختگی، بر تشخیص واقعی بودن، مانند ضربان قلب تمرکز می کند. با استفاده از تکنیکی به نام photoplethysmography – سیستم تشخیص تغییرات رنگ در رگ‌ها به دلیل محتوای اکسیژن را تجزیه و تحلیل می‌کند، که از نظر محاسباتی قابل مشاهده است – این فناوری می‌تواند تشخیص دهد که یک شخصیت یک انسان واقعی است یا مصنوعی.

ما در تلاشیم تا به آنچه واقعی و معتبر است نگاه کنیم. ضربان قلب یکی از این موارد است [the signals]دمیر گفت: “بنابراین وقتی قلب شما خون را پمپاژ می کند، به رگ های شما می رود و رگ ها به دلیل محتوای اکسیژن موجود در آن رنگ تغییر رنگ می دهند. با چشم ما قابل رویت نیست. من نمی توانم فقط به این ویدیو نگاه کنم و ضربان قلب شما را ببینم. اما این تغییر رنگ از نظر محاسباتی قابل مشاهده است.”

همچنین: مورد کلاهبرداری برنامه های جعلی قرار نگیرید: در اینجا باید مراقب آن باشید

فناوری تشخیص عمیق جعلی اینتل در بخش‌ها و پلتفرم‌های مختلف، از جمله ابزارهای رسانه‌های اجتماعی، آژانس‌های خبری، پخش‌کننده‌ها، ابزارهای تولید محتوا، استارت‌آپ‌ها و سازمان‌های غیرانتفاعی در حال پیاده‌سازی است. این سازمان‌ها با ادغام این فناوری در جریان کاری خود، می‌توانند بهتر از گسترش دروغ‌های عمیق و اطلاعات نادرست جلوگیری کنند.

علیرغم احتمال استفاده نادرست، فناوری دیپ فیک کاربردهای قانونی دارد. یکی از اولین کاربردها، ایجاد آواتارها برای نشان دادن بهتر افراد در محیط های دیجیتال بود. Demir به یک مورد استفاده خاص به نام “MyFace, MyChoice” اشاره می کند که از دیپ فیک ها برای افزایش حریم خصوصی در سیستم عامل های آنلاین استفاده می کند.

به زبان ساده، این رویکرد به افراد اجازه می‌دهد تا ظاهر خود را در عکس‌های آنلاین کنترل کنند و اگر می‌خواهند از شناخته شدن خودداری کنند، چهره‌شان را با «دیپ‌فیک غیرمشابه کمّی» جایگزین کنند. این کنترل‌ها حریم خصوصی و کنترل بیشتری بر هویت فرد ارائه می‌دهند و به مقابله با الگوریتم‌های تشخیص خودکار چهره کمک می‌کنند.

شاید این مقاله را هم دوست داشته باشید :  برندهای برتر هوش مصنوعی به کاخ سفید قول می دهند که هوش مصنوعی را مسئولانه توسعه دهد

همچنین: GPT-3.5 در مقابل GPT-4: آیا ChatGPT Plus ارزش هزینه اشتراک خود را دارد؟

اطمینان از توسعه اخلاقی و اجرای فناوری‌های هوش مصنوعی بسیار مهم است. تیم Trusted Media اینتل با انسان شناسان، دانشمندان علوم اجتماعی و محققان کاربر برای ارزیابی و اصلاح این فناوری همکاری می کند. این شرکت همچنین دارای یک شورای هوش مصنوعی مل است که سیستم های هوش مصنوعی را برای اصول مسئولانه و اخلاقی، از جمله سوگیری های احتمالی، محدودیت ها و موارد استفاده مضر احتمالی بررسی می کند. این رویکرد چند رشته‌ای کمک می‌کند تا اطمینان حاصل شود که فناوری‌های هوش مصنوعی، مانند تشخیص عمیق جعلی، به جای آسیب رساندن، به نفع انسان‌ها باشد.

دایمر می‌گوید: «ما افراد حقوقی، دانشمندان علوم اجتماعی، روان‌شناسان داریم، و همه آن‌ها گرد هم می‌آیند تا محدودیت‌ها را مشخص کنند تا ببینند آیا سوگیری وجود دارد – سوگیری الگوریتمی، سوگیری سیستماتیک، سوگیری داده‌ها، هر نوع سوگیری. . این تیم کد را اسکن می کند تا “هر گونه موارد استفاده احتمالی از یک فناوری که می تواند به مردم آسیب برساند” را پیدا کند.

همچنین: 5 راه برای کشف استفاده از هوش مصنوعی مولد در محل کار

همانطور که دیپ فیک رایج تر و پیچیده تر می شود، توسعه و اجرای فناوری های تشخیص برای مبارزه با اطلاعات نادرست و سایر پیامدهای مضر اهمیت فزاینده ای دارد. فناوری تشخیص عمیق جعلی در زمان واقعی آزمایشگاه های اینتل راه حلی مقیاس پذیر و موثر برای این مشکل رو به رشد ارائه می دهد.

اینتل با ترکیب ملاحظات اخلاقی و همکاری با کارشناسان در رشته‌های مختلف، به سمت آینده‌ای کار می‌کند که در آن از فناوری‌های هوش مصنوعی مسئولانه و برای بهبود جامعه استفاده شود.



امیدواریم از این مقاله مجله هشت پیک نیز استفاده لازم را کرده باشید و در صورت تمایل آنرا با دوستان خود به اشتراک بگذارید و با امتیاز از قسمت پایین و درج نظرات باعث دلگرمی مجموعه مجله 8pic باشید

امتیاز بدهید

لینک کوتاه مقاله : https://5ia.ir/gYYbmQ
کوتاه کننده لینک
کد QR :
اشتراک گذاری

شاید این مطالب را هم دوست داشته باشید

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *