تشخیص عمیق دروغین در زمان واقعی: چگونه آزمایشگاه های اینتل از هوش مصنوعی برای مبارزه با اطلاعات نادرست استفاده می کند
با مجله هشت پیک با مقاله ی تشخیص عمیق دروغین در زمان واقعی: چگونه آزمایشگاه های اینتل از هوش مصنوعی برای مبارزه با اطلاعات نادرست استفاده می کند
همراه ما باشید
https://www.youtube.com/watch?v=IXqg6KLLbng
چند سال پیش، دیپ فیک مانند یک فناوری جدید به نظر می رسید که سازندگان آن به قدرت محاسباتی جدی متکی بودند. امروزه، دیپفیکها در همه جا وجود دارند و این پتانسیل را دارند که برای اطلاعات نادرست، هک و سایر اهداف پلید مورد سوء استفاده قرار گیرند.
آزمایشگاههای اینتل برای مقابله با این مشکل رو به رشد، فناوری تشخیص عمیق جعلی را در زمان واقعی توسعه دادهاند. ایلکه دمیر، دانشمند تحقیقاتی ارشد در اینتل، فناوری پشت سرگذاشتههای عمیق، روشهای تشخیص اینتل و ملاحظات اخلاقی مربوط به توسعه و اجرای چنین ابزارهایی را توضیح میدهد.
همچنین: کارشناس اخلاق هوش مصنوعی میگوید رونق امروزی هوش مصنوعی، اگر اکنون اقدام نکنیم، مشکلات اجتماعی را تشدید خواهد کرد.
دیپ فیک ها ویدئوها، گفتار یا تصاویری هستند که در آن بازیگر یا عمل واقعی نیست، بلکه توسط هوش مصنوعی (AI) ایجاد شده است. دیپفیکها از معماریهای پیچیده یادگیری عمیق، مانند شبکههای متخاصم مولد، رمزگذارهای خودکار متغیر، و سایر مدلهای هوش مصنوعی برای ایجاد محتوای بسیار واقعی و باورپذیر استفاده میکنند. این مدلها میتوانند شخصیتهای مصنوعی، ویدیوهای همگامسازی لب و حتی تبدیل متن به تصویر ایجاد کنند و تشخیص محتوای واقعی و جعلی را به چالش میکشند.
اصطلاح دیپفیک گاهی اوقات برای محتوای معتبری که تغییر کرده است به کار میرود، مانند ویدیوی سال 2019 از نانسی پلوسی، رئیس سابق مجلس نمایندگان، که برای این که او را مست به نظر برسانند، اصلاح شده است.
تیم Demir به بررسی دیپ فیک های محاسباتی می پردازد، که اشکال مصنوعی محتوای تولید شده توسط ماشین ها هستند. او میگوید: «دلیل اینکه به آن دیپفیک میگویند این است که این معماری پیچیده یادگیری عمیق در هوش مصنوعی مولد وجود دارد که همه آن محتوا را ایجاد میکند.
همچنین: بر اساس یک نظرسنجی، اکثر آمریکایی ها فکر می کنند هوش مصنوعی بشریت را تهدید می کند
مجرمان سایبری و سایر بازیگران بد اغلب از فناوری دیپ فیک سوء استفاده می کنند. برخی از موارد استفاده شامل اطلاعات غلط سیاسی، محتوای بزرگسالان با حضور افراد مشهور یا افراد غیر موافق، دستکاری بازار، و جعل هویت برای منافع پولی است. این تأثیرات منفی بر نیاز به روشهای مؤثر تشخیص عمیق جعلی تأکید میکند.
آزمایشگاه های اینتل یکی از اولین پلتفرم های تشخیص دیپ فیک بلادرنگ در جهان را توسعه داده است. این فناوری به جای جستجوی مصنوعات ساختگی، بر تشخیص واقعی بودن، مانند ضربان قلب تمرکز می کند. با استفاده از تکنیکی به نام photoplethysmography – سیستم تشخیص تغییرات رنگ در رگها به دلیل محتوای اکسیژن را تجزیه و تحلیل میکند، که از نظر محاسباتی قابل مشاهده است – این فناوری میتواند تشخیص دهد که یک شخصیت یک انسان واقعی است یا مصنوعی.
ما در تلاشیم تا به آنچه واقعی و معتبر است نگاه کنیم. ضربان قلب یکی از این موارد است [the signals]دمیر گفت: “بنابراین وقتی قلب شما خون را پمپاژ می کند، به رگ های شما می رود و رگ ها به دلیل محتوای اکسیژن موجود در آن رنگ تغییر رنگ می دهند. با چشم ما قابل رویت نیست. من نمی توانم فقط به این ویدیو نگاه کنم و ضربان قلب شما را ببینم. اما این تغییر رنگ از نظر محاسباتی قابل مشاهده است.”
همچنین: مورد کلاهبرداری برنامه های جعلی ChatGPT قرار نگیرید: در اینجا باید مراقب آن باشید
فناوری تشخیص عمیق جعلی اینتل در بخشها و پلتفرمهای مختلف، از جمله ابزارهای رسانههای اجتماعی، آژانسهای خبری، پخشکنندهها، ابزارهای تولید محتوا، استارتآپها و سازمانهای غیرانتفاعی در حال پیادهسازی است. این سازمانها با ادغام این فناوری در جریان کاری خود، میتوانند بهتر از گسترش دروغهای عمیق و اطلاعات نادرست جلوگیری کنند.
علیرغم احتمال استفاده نادرست، فناوری دیپ فیک کاربردهای قانونی دارد. یکی از اولین کاربردها، ایجاد آواتارها برای نشان دادن بهتر افراد در محیط های دیجیتال بود. Demir به یک مورد استفاده خاص به نام “MyFace, MyChoice” اشاره می کند که از دیپ فیک ها برای افزایش حریم خصوصی در سیستم عامل های آنلاین استفاده می کند.
به زبان ساده، این رویکرد به افراد اجازه میدهد تا ظاهر خود را در عکسهای آنلاین کنترل کنند و اگر میخواهند از شناخته شدن خودداری کنند، چهرهشان را با «دیپفیک غیرمشابه کمّی» جایگزین کنند. این کنترلها حریم خصوصی و کنترل بیشتری بر هویت فرد ارائه میدهند و به مقابله با الگوریتمهای تشخیص خودکار چهره کمک میکنند.
همچنین: GPT-3.5 در مقابل GPT-4: آیا ChatGPT Plus ارزش هزینه اشتراک خود را دارد؟
اطمینان از توسعه اخلاقی و اجرای فناوریهای هوش مصنوعی بسیار مهم است. تیم Trusted Media اینتل با انسان شناسان، دانشمندان علوم اجتماعی و محققان کاربر برای ارزیابی و اصلاح این فناوری همکاری می کند. این شرکت همچنین دارای یک شورای هوش مصنوعی مسئول است که سیستم های هوش مصنوعی را برای اصول مسئولانه و اخلاقی، از جمله سوگیری های احتمالی، محدودیت ها و موارد استفاده مضر احتمالی بررسی می کند. این رویکرد چند رشتهای کمک میکند تا اطمینان حاصل شود که فناوریهای هوش مصنوعی، مانند تشخیص عمیق جعلی، به جای آسیب رساندن، به نفع انسانها باشد.
دایمر میگوید: «ما افراد حقوقی، دانشمندان علوم اجتماعی، روانشناسان داریم، و همه آنها گرد هم میآیند تا محدودیتها را مشخص کنند تا ببینند آیا سوگیری وجود دارد – سوگیری الگوریتمی، سوگیری سیستماتیک، سوگیری دادهها، هر نوع سوگیری. . این تیم کد را اسکن می کند تا “هر گونه موارد استفاده احتمالی از یک فناوری که می تواند به مردم آسیب برساند” را پیدا کند.
همچنین: 5 راه برای کشف استفاده از هوش مصنوعی مولد در محل کار
همانطور که دیپ فیک رایج تر و پیچیده تر می شود، توسعه و اجرای فناوری های تشخیص برای مبارزه با اطلاعات نادرست و سایر پیامدهای مضر اهمیت فزاینده ای دارد. فناوری تشخیص عمیق جعلی در زمان واقعی آزمایشگاه های اینتل راه حلی مقیاس پذیر و موثر برای این مشکل رو به رشد ارائه می دهد.
اینتل با ترکیب ملاحظات اخلاقی و همکاری با کارشناسان در رشتههای مختلف، به سمت آیندهای کار میکند که در آن از فناوریهای هوش مصنوعی مسئولانه و برای بهبود جامعه استفاده شود.
امیدواریم از این مقاله مجله هشت پیک نیز استفاده لازم را کرده باشید و در صورت تمایل آنرا با دوستان خود به اشتراک بگذارید و با امتیاز از قسمت پایین و درج نظرات باعث دلگرمی مجموعه مجله 8pic باشید
لینک کوتاه مقاله : https://5ia.ir/gYYbmQ
کوتاه کننده لینک
کد QR :
آخرین دیدگاهها