کلید نظارت انسانی برای صادق نگه داشتن هوش مصنوعی
به گزارش مجله هشت پیک کلید نظارت انسانی برای صادق نگه داشتن هوش مصنوعی
که در این بخش به محتوای این خبر با شما کاربران گرامی خواهیم پرداخت
هوش مصنوعی (AI) هنوز فاقد ویژگیهای کلیدی مورد نیاز برای رمزگشایی اطلاعات است و نباید تصمیم بگیرد که مردم چه محتوایی را بخوانند.
آرجون نارایان، رئیس بخش اعتماد، ایمنی و تجربه مشتری در SmartNews گفت که نظارت انسانی و نردههای محافظ برای اطمینان از ارائه محتوای مناسب به کاربران بسیار مهم است.
همچنین: شش مهارتی که برای تبدیل شدن به یک مهندس سریع هوش مصنوعی نیاز دارید
پلتفرم جمعآوری اخبار، مقالاتی را از 3000 منبع خبری در سراسر جهان مدیریت میکند، جایی که کاربران آن به طور متوسط 23 دقیقه در روز را در برنامه خود صرف میکنند. این برنامه که در اندروید و آی او اس موجود است، بیش از 50 میلیون بار دانلود کرده است. SmartNews که مقر آن در توکیو است، تیم هایی در ژاپن و ایالات متحده دارد که شامل زبان شناسان، تحلیلگران و سیاست گذاران است.
ماموریت اعلام شده این شرکت، در میان حجم گسترده اطلاعاتی که اکنون به صورت آنلاین در دسترس است، ارائه اخبار قابل اعتماد و مرتبط با کاربرانش است. SmartNews در وبسایت خود میگوید: “اخبار باید قابل اعتماد باشد. الگوریتمهای ما میلیونها مقاله، سیگنال و تعاملات انسانی را ارزیابی میکنند تا 0.01٪ از داستانهایی را که در حال حاضر مهمتر هستند، ارائه دهند.”
این پلتفرم از فناوریهای یادگیری ماشین و پردازش زبان طبیعی برای شناسایی و اولویتبندی اخبار مورد نظر کاربران استفاده میکند. دارای معیارهایی برای ارزیابی قابل اعتماد بودن و دقت منابع خبری است.
همچنین: MIT می گوید پذیرش انبوه ابزارهای هوش مصنوعی یک عامل بسیار مهم را از مسیر خارج می کند
نارایان گفت که این امر بسیار مهم است زیرا اطلاعات به طور فزاینده ای از طریق رسانه های اجتماعی مصرف می شود، جایی که صحت آن می تواند مشکوک باشد.
موتور اختصاصی هوش مصنوعی آن یک فید خبری را تقویت می کند که بر اساس ترجیحات شخصی کاربران، مانند موضوعاتی که دنبال می کنند، تنظیم شده است. همچنین از سیستمهای مختلف یادگیری ماشین برای تجزیه و تحلیل و ارزیابی مقالاتی که نمایه شدهاند استفاده میکند تا مشخص کند آیا محتوا با خطمشیهای شرکت مطابقت دارد یا خیر. او گفت که منابع ناسازگار فیلتر می شوند.
از آنجایی که پشتیبانی مشتری به تیم خود گزارش می دهد، او اضافه کرد که بازخورد کاربر را می توان به سرعت بررسی کرد و در صورت لزوم در آن گنجانید.
مانند بسیاری دیگر، این شرکت در حال حاضر به دنبال هوش مصنوعی مولد و ارزیابی بهترین روش استفاده از فناوری در حال ظهور برای افزایش بیشتر کشف و جستجوی محتوا است. نارایان از ارائه جزئیات در مورد این که این ویژگی های جدید ممکن است باشد خودداری کرد.
با این حال، او بر اهمیت حفظ نظارت انسانی در میان استفاده از هوش مصنوعی تاکید کرد، که هنوز در برخی زمینه ها وجود نداشت.
همچنین: اگر از کد تولید شده توسط هوش مصنوعی استفاده می کنید، در معرض مسئولیت شما چیست؟
به عنوان مثال، مدلهای زبان بزرگ در پردازش اخبار فوری یا موضوعی کارآمد نیستند، اما زمانی که برای تجزیه و تحلیل محتوای همیشه سبز استفاده میشوند، مانند DYI یا مقالههای چگونه، از دقت و اطمینان بالاتری استفاده میکنند.
او خاطرنشان کرد: این مدلهای هوش مصنوعی همچنین در خلاصهسازی بخشهای بزرگ محتوا و پشتیبانی از برخی عملکردها، مانند افزایش توزیع محتوا، به خوبی عمل میکنند. تیم او در حال ارزیابی اثربخشی استفاده از مدلهای زبان بزرگ برای تعیین اینکه آیا محتوای خاصی با خطمشیهای ویرایشی شرکت مطابقت دارد یا خیر. او گفت: «هنوز روزهای نوپا و اولیه است. “آنچه ما آموخته ایم این است [the level of] دقت یا دقت مدلهای هوش مصنوعی به اندازه دادههایی است که به آنها میدهید و آموزش میدهید.”
نارایان گفت که مدلهای امروزی عمدتاً «آگاهانه» نیستند و فاقد درک زمینهای هستند. او گفت که این مسائل را می توان در طول زمان حل کرد زیرا مجموعه داده ها و انواع داده های بیشتری به مدل وارد می شود.
برای اطمینان از اینکه داده های آموزشی “درمان” و عاری از سوگیری یا عادی سازی برای ناسازگاری ها هستند، باید تلاش یکسانی انجام شود. او خاطرنشان کرد که این امر به ویژه برای هوش مصنوعی مولد، جایی که مجموعه داده های باز معمولاً برای آموزش مدل هوش مصنوعی استفاده می شود، مهم است. او این را به عنوان بخش “سایه” صنعت توصیف کرد که منجر به مسائل مربوط به کپی رایت و نقض مالکیت معنوی خواهد شد.
همچنین: یک سوال خاردار: چه کسی صاحب کد، تصاویر و روایت های تولید شده توسط هوش مصنوعی است؟
او گفت: «در حال حاضر، افشای عمومی زیادی در مورد اینکه چه نوع دادههایی وارد مدل هوش مصنوعی میشود، وجود ندارد. این باید تغییر کند. باید در مورد نحوه آموزش آنها و منطق تصمیم گیری شفافیت وجود داشته باشد، زیرا این مدل های هوش مصنوعی دیدگاه های جهانی ما را شکل خواهند داد.
او در مورد “توهمات” ابراز نگرانی کرد، جایی که هوش مصنوعی قادر به تولید اطلاعات نادرست است تا افراد واقع بین متقاعد شوند که درست هستند.
او گفت که چنین مشکلاتی بر نیاز به نوعی حکمرانی که شامل نظارت انسان بر محتوایی است که به کاربران منتقل می شود، تأکید می کند.
سازمانها همچنین باید آنچه را که از مدلهای هوش مصنوعی آنها بیرون میآید حسابرسی کنند و نردههای محافظ لازم را پیادهسازی کنند. به عنوان مثال، هنگامی که از سیستم هوش مصنوعی خواسته می شود دستورالعمل هایی در مورد ساخت بمب یا نوشتن مقاله ای که سرقت ادبی است ارائه کند، باید شبکه های ایمنی وجود داشته باشد.
نارایان گفت: «هوش مصنوعی در حال حاضر در مرحلهای نیست که بتوانید اجازه دهید به تنهایی کار کند. “شما به نرده های محافظ نیاز دارید. شما محتوایی را نمی خواهید که تصحیح یا بررسی نشده باشد.”
و در میان هیاهوها، مهم است که به محدودیتهای هوش مصنوعی مولد توجه داشته باشید، زیرا مدلها هنوز برای رسیدگی به اخبار فوری آموزش ندیدهاند و روی دادههای زمان واقعی به خوبی اجرا نمیشوند.
همچنین: مالک کد کیست؟ اگر ChatGPT به شما کمک می کند تا برنامه خود را بنویسید، آیا به شما تعلق دارد؟
جایی که هوش مصنوعی بهتر عمل کرده است، قدرت موتور توصیه خود است، که SmartNews از آن برای اولویت بندی مقالاتی که بر اساس سیگنال های پس زمینه خاص، مانند الگوهای خواندن کاربر، به نظر می رسد دارای علاقه بالاتری هستند، استفاده می کند. او توضیح داد که این سیستم های هوش مصنوعی در دهه گذشته مورد استفاده قرار گرفته اند، جایی که قوانین و الگوریتم ها به طور مداوم تنظیم شده اند.
در حالی که او تمایلی به افشای جزئیات در مورد چگونگی ترکیب هوش مصنوعی مولد نداشت، به پتانسیل آن در تسهیل تعامل انسان با ماشینها اشاره کرد.
هر کسی، از جمله کسانی که پیشینه فنی ندارند، تا زمانی که بدانند چگونه سؤالات درست بپرسند، می توانند پاسخ های مورد نیاز خود را دریافت کنند. او گفت که سپس آنها می توانند پاسخ ها را برای استفاده در فعالیت های روزانه خود تغییر دهند.
با این حال، برخی از مناطق هوش مصنوعی مولد خاکستری باقی می مانند.
به گفته نارایان، در پلتفرم خبری آن با ناشران در مورد چگونگی مدیریت مقالاتی که به طور کامل توسط هوش مصنوعی نوشته شده اند، و همچنین مقالاتی که توسط انسان نوشته شده اما با هوش مصنوعی افزوده شده اند، بحث های مداومی وجود دارد. و آیا باید قوانینی برای چنین موادی وضع شود، پس چگونه این قوانین اجرا می شوند؟
علاوه بر این، سؤالاتی در مورد سطح افشا وجود دارد که باید در مورد تغییرات مختلف اعمال شود، بنابراین خوانندگان بدانند چه زمانی و چگونه از هوش مصنوعی استفاده می شود.
همچنین: آیا واقعاً انسانیت محکوم به فناست؟ پاشنه آشیل هوش مصنوعی را در نظر بگیرید
صرف نظر از این که در نهایت چگونه به این موارد پرداخته می شود، آنچه همچنان یک دستور باقی می ماند، نظارت ویراستاری است. نارایان با تاکید مجدد بر اهمیت شفافیت، گفت که هر محتوایی همچنان باید با سیاستهای سرمقاله SmartNews در مورد دقت و قابل اعتماد بودن مطابقت داشته باشد.
او نسبت به اخراجهای فنی که منجر به حذف اخلاق هوش مصنوعی و تیمهای اعتماد شد، ابراز نگرانی کرد. “الان به شما می گویم، ادامه داشتن آن بسیار مهم است [human] نظارت و سرمایه گذاری در نرده های ایمنی. او گفت: “اگر سخت کوشی وجود نداشته باشد، ما یک هیولا می سازیم.” او گفت: “اتوماسیون عالی است. [and allows] شما به سیستمها مقیاس میدهید، اما هیچ چیز به نبوغ انسان نزدیک نمیشود.”
امیدواریم از این مقاله مجله هشت پیک نیز استفاده لازم را کرده باشید و در صورت تمایل آنرا با دوستان خود به اشتراک بگذارید و با امتیاز از قسمت پایین و درج نظرات باعث دلگرمی مجموعه مجله 8pic باشید
لینک کوتاه مقاله : https://5ia.ir/rub
کوتاه کننده لینک
کد QR :
آخرین دیدگاهها