کلید نظارت انسانی برای صادق نگه داشتن هوش مصنوعی

زمان مطالعه: 5 دقیقه

به گزارش مجله هشت پیک کلید نظارت انسانی برای صادق نگه داشتن
که در این بخش به محتوای این خبر با شما کاربران گرامی خواهیم پرداخت

نمایش انتزاعی هوش مصنوعی

یویچیرو چینو/گتی ایماژ

هوش مصنوعی (AI) هنوز فاقد ویژگی‌های کلیدی مورد نیاز برای رمزگشایی اطلاعات است و نباید تصمیم بگیرد که مردم چه محتوایی را بخوانند.

آرجون نارایان، رئیس بخش اعتماد، ایمنی و تجربه مشتری در SmartNews گفت که نظارت انسانی و نرده‌های محافظ برای اطمینان از ارائه محتوای مناسب به کاربران بسیار مهم است.

همچنین: شش مهارتی که برای تبدیل شدن به یک مهندس سریع هوش مصنوعی نیاز دارید

پلتفرم جمع‌آوری اخبار، مقالاتی را از 3000 منبع خبری در سراسر جهان مدیریت می‌کند، جایی که کاربران آن به طور متوسط ​​23 دقیقه در روز را در برنامه خود صرف می‌کنند. این برنامه که در اندروید و آی او اس موجود است، بیش از 50 میلیون بار دانلود کرده است. SmartNews که مقر آن در توکیو است، تیم هایی در ژاپن و ایالات متحده دارد که شامل زبان شناسان، تحلیلگران و سیاست گذاران است.

ماموریت اعلام شده این شرکت، در میان حجم گسترده اطلاعاتی که اکنون به صورت آنلاین در دسترس است، ارائه اخبار قابل اعتماد و مرتبط با کاربرانش است. SmartNews در وب‌سایت خود می‌گوید: “اخبار باید قابل اعتماد باشد. الگوریتم‌های ما میلیون‌ها مقاله، سیگنال و تعاملات انسانی را ارزیابی می‌کنند تا 0.01٪ از داستان‌هایی را که در حال حاضر مهم‌تر هستند، ارائه دهند.”

این پلتفرم از فناوری‌های یادگیری ماشین و پردازش زبان طبیعی برای شناسایی و اولویت‌بندی اخبار مورد نظر کاربران استفاده می‌کند. دارای معیارهایی برای ارزیابی قابل اعتماد بودن و دقت منابع خبری است.

همچنین: MIT می گوید پذیرش انبوه ابزارهای هوش مصنوعی یک عامل بسیار مهم را از مسیر خارج می کند

نارایان گفت که این امر بسیار مهم است زیرا اطلاعات به طور فزاینده ای از طریق رسانه های اجتماعی مصرف می شود، جایی که صحت آن می تواند مشکوک باشد.

موتور اختصاصی هوش مصنوعی آن یک فید خبری را تقویت می کند که بر اساس ترجیحات شخصی کاربران، مانند موضوعاتی که دنبال می کنند، تنظیم شده است. همچنین از سیستم‌های مختلف یادگیری ماشین برای تجزیه و تحلیل و ارزیابی مقالاتی که نمایه شده‌اند استفاده می‌کند تا مشخص کند آیا محتوا با خط‌مشی‌های شرکت مطابقت دارد یا خیر. او گفت که منابع ناسازگار فیلتر می شوند.

از آنجایی که پشتیبانی مشتری به تیم خود گزارش می دهد، او اضافه کرد که بازخورد کاربر را می توان به سرعت بررسی کرد و در صورت لزوم در آن گنجانید.

مانند بسیاری دیگر، این شرکت در حال حاضر به دنبال هوش مصنوعی مولد و ارزیابی بهترین روش استفاده از فناوری در حال ظهور برای افزایش بیشتر کشف و جستجوی محتوا است. نارایان از ارائه جزئیات در مورد این که این ویژگی های جدید ممکن است باشد خودداری کرد.

با این حال، او بر اهمیت حفظ نظارت انسانی در میان استفاده از هوش مصنوعی تاکید کرد، که هنوز در برخی زمینه ها وجود نداشت.

شاید این مقاله را هم دوست داشته باشید :  نحوه استفاده از ابزار نوشتن هوش مصنوعی در Gmail و پرونده های گوگل

همچنین: اگر از کد تولید شده توسط هوش مصنوعی استفاده می کنید، در معرض مسئولیت شما چیست؟

به عنوان مثال، مدل‌های زبان بزرگ در پردازش اخبار فوری یا موضوعی کارآمد نیستند، اما زمانی که برای تجزیه و تحلیل محتوای همیشه سبز استفاده می‌شوند، مانند DYI یا مقاله‌های ، از دقت و اطمینان بالاتری استفاده می‌کنند.

او خاطرنشان کرد: این مدل‌های هوش مصنوعی همچنین در خلاصه‌سازی بخش‌های بزرگ محتوا و پشتیبانی از برخی عملکردها، مانند افزایش توزیع محتوا، به خوبی عمل می‌کنند. تیم او در حال ارزیابی اثربخشی استفاده از مدل‌های زبان بزرگ برای تعیین اینکه آیا محتوای خاصی با خط‌مشی‌های ویرایشی شرکت مطابقت دارد یا خیر. او گفت: «هنوز روزهای نوپا و اولیه است. “آنچه ما آموخته ایم این است [the level of] دقت یا دقت مدل‌های هوش مصنوعی به اندازه داده‌هایی است که به آن‌ها می‌دهید و آموزش می‌دهید.”

نارایان گفت که مدل‌های امروزی عمدتاً «آگاهانه» نیستند و فاقد درک زمینه‌ای هستند. او گفت که این مسائل را می توان در طول زمان حل کرد زیرا مجموعه داده ها و انواع داده های بیشتری به مدل وارد می شود.

برای اطمینان از اینکه داده های آموزشی “درمان” و عاری از سوگیری یا عادی سازی برای ناسازگاری ها هستند، باید تلاش یکسانی انجام شود. او خاطرنشان کرد که این امر به ویژه برای هوش مصنوعی مولد، جایی که مجموعه داده های باز معمولاً برای آموزش مدل هوش مصنوعی استفاده می شود، مهم است. او این را به عنوان بخش “سایه” صنعت توصیف کرد که منجر به مسائل مربوط به کپی رایت و نقض مالکیت معنوی خواهد شد.

همچنین: یک سوال خاردار: چه کسی صاحب کد، تصاویر و روایت های تولید شده توسط هوش مصنوعی است؟

او گفت: «در حال حاضر، افشای عمومی زیادی در مورد اینکه چه نوع داده‌هایی وارد مدل هوش مصنوعی می‌شود، وجود ندارد. این باید تغییر کند. باید در مورد نحوه آموزش آنها و منطق تصمیم گیری شفافیت وجود داشته باشد، زیرا این مدل های هوش مصنوعی دیدگاه های جهانی ما را شکل خواهند داد.

او در مورد “توهمات” ابراز نگرانی کرد، جایی که هوش مصنوعی قادر به تولید اطلاعات نادرست است تا افراد واقع بین متقاعد شوند که درست هستند.

او گفت که چنین مشکلاتی بر نیاز به نوعی حکمرانی که شامل نظارت انسان بر محتوایی است که به کاربران منتقل می شود، تأکید می کند.

سازمان‌ها همچنین باید آنچه را که از مدل‌های هوش مصنوعی آنها بیرون می‌آید حسابرسی کنند و نرده‌های محافظ لازم را پیاده‌سازی کنند. به عنوان مثال، هنگامی که از سیستم هوش مصنوعی خواسته می شود دستورالعمل هایی در مورد ساخت بمب یا نوشتن مقاله ای که سرقت ادبی است ارائه کند، باید شبکه های ایمنی وجود داشته باشد.

نارایان گفت: «هوش مصنوعی در حال حاضر در مرحله‌ای نیست که بتوانید اجازه دهید به تنهایی کار کند. “شما به نرده های محافظ نیاز دارید. شما محتوایی را نمی خواهید که تصحیح یا بررسی نشده باشد.”

شاید این مقاله را هم دوست داشته باشید :  چت هوش مصنوعی Bing به Chrome و Safari برای کاربران منتخب گسترش می یابد

و در میان هیاهوها، مهم است که به محدودیت‌های هوش مصنوعی مولد توجه داشته باشید، زیرا مدل‌ها هنوز برای رسیدگی به اخبار فوری آموزش ندیده‌اند و روی داده‌های زمان واقعی به خوبی اجرا نمی‌شوند.

همچنین: مالک کد کیست؟ اگر ChatGPT به شما کمک می کند تا برنامه خود را بنویسید، آیا به شما تعلق دارد؟

جایی که هوش مصنوعی بهتر عمل کرده است، قدرت موتور توصیه خود است، که SmartNews از آن برای اولویت بندی مقالاتی که بر اساس سیگنال های پس زمینه خاص، مانند الگوهای خواندن کاربر، به نظر می رسد دارای علاقه بالاتری هستند، استفاده می کند. او توضیح داد که این سیستم های هوش مصنوعی در دهه گذشته مورد استفاده قرار گرفته اند، جایی که قوانین و الگوریتم ها به طور مداوم تنظیم شده اند.

در حالی که او تمایلی به افشای جزئیات در مورد چگونگی ترکیب هوش مصنوعی مولد نداشت، به پتانسیل آن در تسهیل تعامل انسان با ماشین‌ها اشاره کرد.

هر کسی، از جمله کسانی که پیشینه فنی ندارند، تا زمانی که بدانند چگونه سؤالات درست بپرسند، می توانند پاسخ های مورد نیاز خود را دریافت کنند. او گفت که سپس آنها می توانند پاسخ ها را برای استفاده در فعالیت های روزانه خود تغییر دهند.

با این حال، برخی از مناطق هوش مصنوعی مولد خاکستری باقی می مانند.

به گفته نارایان، در پلتفرم خبری آن با ناشران در مورد چگونگی مدیریت مقالاتی که به طور کامل توسط هوش مصنوعی نوشته شده اند، و همچنین مقالاتی که توسط انسان نوشته شده اما با هوش مصنوعی افزوده شده اند، بحث های مداومی وجود دارد. و آیا باید قوانینی برای چنین موادی وضع شود، پس چگونه این قوانین اجرا می شوند؟

علاوه بر این، سؤالاتی در مورد سطح افشا وجود دارد که باید در مورد تغییرات مختلف اعمال شود، بنابراین خوانندگان بدانند چه زمانی و چگونه از هوش مصنوعی استفاده می شود.

همچنین: آیا واقعاً انسانیت محکوم به فناست؟ پاشنه آشیل هوش مصنوعی را در نظر بگیرید

صرف نظر از این که در نهایت چگونه به این موارد پرداخته می شود، آنچه همچنان یک دستور باقی می ماند، نظارت ویراستاری است. نارایان با تاکید مجدد بر اهمیت شفافیت، گفت که هر محتوایی همچنان باید با سیاست‌های سرمقاله SmartNews در مورد دقت و قابل اعتماد بودن مطابقت داشته باشد.

او نسبت به اخراج‌های فنی که منجر به حذف اخلاق هوش مصنوعی و تیم‌های اعتماد شد، ابراز نگرانی کرد. “الان به شما می گویم، ادامه داشتن آن بسیار مهم است [human] نظارت و سرمایه گذاری در نرده های ایمنی. او گفت: “اگر سخت کوشی وجود نداشته باشد، ما یک هیولا می سازیم.” او گفت: “اتوماسیون عالی است. [and allows] شما به سیستم‌ها مقیاس می‌دهید، اما هیچ چیز به نبوغ انسان نزدیک نمی‌شود.”



امیدواریم از این مقاله مجله هشت پیک نیز استفاده لازم را کرده باشید و در صورت تمایل آنرا با دوستان خود به اشتراک بگذارید و با امتیاز از قسمت پایین و درج نظرات باعث دلگرمی مجموعه مجله 8pic باشید

امتیاز بدهید

لینک کوتاه مقاله : https://5ia.ir/rub
کوتاه کننده لینک
کد QR :
اشتراک گذاری

شاید این مطالب را هم دوست داشته باشید

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *