آیا ممکن است کسی به دروغ شما را به استفاده از متن تولید شده توسط هوش مصنوعی متهم کند؟ این می تواند دلیل آن باشد

زمان مطالعه: 3 دقیقه

با مجله هشت پیک با مقاله ی آیا ممکن است کسی به دروغ شما را به استفاده از متن تولید شده توسط متهم کند؟ این می تواند دلیل آن باشد
همراه ما باشید

دختر دانشجوی جوانی پشت میز نشسته و کتاب‌های درسی و لپ‌تاپ به کناری خیره شده است، به تنهایی در کتابخانه درس می‌خواند، راه حل جستجوی متفکر و متفکر به نظر می‌رسد، برای امتحان آماده می‌شود، کار را گیج یا گیج می‌کند.

Fizkes از طریق iStock/Getty Images Plus

هوش مصنوعی (AI) در چند ماه گذشته محبوبیت زیادی پیدا کرده است، اما برخی از زمینه ها از جمله آموزش همچنان بحث برانگیز هستند. بیشتر این نگرانی بر روی پتانسیل دانش‌آموزان برای استفاده از یک ابزار هوش مصنوعی مانند برای انجام کارهای خود، از جمله نوشتن یک مقاله یا ایجاد کد متمرکز است.

برخی از اساتید این فناوری را در کلاس‌های خود مجاز می‌دانند، برخی دیگر آن را ممنوع می‌کنند، و برخی دیگر بنا به صلاحدید خود آن را مجاز می‌دانند، که ممکن است شامل بررسی دقیق کار دانش‌آموزان با آشکارسازهای GPT باشد. مقاله‌ای که اخیراً توسط Patterns منتشر شده است نشان می‌دهد که محققان دریافته‌اند که برنامه‌هایی که برای تشخیص اینکه آیا متن توسط هوش مصنوعی تولید شده است یا انسان ساخته شده‌اند، زمانی که توسط نویسندگان غیربومی انگلیسی نوشته می‌شود، اغلب به اشتباه آن را به‌عنوان تولیدشده توسط هوش مصنوعی برچسب‌گذاری می‌کنند.

همچنین: این ابزار جدید هوش مصنوعی ابله های شما را به تصاویر باکیفیت تبدیل می کند

در این مطالعه، محققان عملکرد هفت آشکارساز GPT پرکاربرد را با 91 مقاله برای آزمون زبان انگلیسی به عنوان زبان خارجی (TOEFL) توسط چینی زبانان و 88 مقاله نوشته شده توسط دانش‌آموزان کلاس هشتم آمریکایی که از جایزه ارزیابی خودکار دانش آموزان بنیاد هیولت (ASAP).

آشکارسازهای GPT تمام مقالات دانش‌آموزان ایالات متحده را به‌طور دقیق طبقه‌بندی کردند، اما به‌طور نادرست به طور متوسط ​​۶۱ درصد از مقالات تافل را به‌عنوان تولیدشده توسط هوش مصنوعی برچسب‌گذاری کردند. یکی از آشکارسازها به اشتباه 97.8 درصد از مقالات تافل را که توسط هوش مصنوعی تولید شده بودند، علامت گذاری کرد.

شاید این مقاله را هم دوست داشته باشید :  مایکروسافت سه گانه هوش مصنوعی Azure را در Inspire 2023 معرفی کرد

همچنین: اینها 4 برنامه مورد علاقه من برای چت ربات هوش مصنوعی برای هستند

این تحقیق همچنین نشان داد که این ردیاب‌های GPT آنقدرها که کاربرانشان فکر می‌کنند در کشف سرقت ادبی مؤثر نیستند. بسیاری از آشکارسازها دقت 99 درصدی را بدون مدرکی برای تأیید ادعاها تبلیغ می کنند.

محققان مقالاتی را با استفاده از ChatGPT تولید کردند و 70 درصد آنها به عنوان AI تولید شده توسط آشکارسازهای GPT شناسایی شدند. اما درخواست های ساده، مانند درخواست از ChatGPT برای “بالا بردن متن ارائه شده با استفاده از زبان ادبی”، متن را به اندازه کافی بهبود بخشید تا این رقم به 3٪ کاهش یابد، که به این معنی بود که آشکارسازهای GPT به اشتباه تشخیص دادند که 97٪ مقالات توسط انسان نوشته شده است. زمان.

جیمز زو، نویسنده ارشد از دانشگاه استنفورد، گفت: “توصیه فعلی ما این است که باید بسیار مراقب باشیم و شاید سعی کنیم تا حد امکان از استفاده از این آشکارسازها خودداری کنیم.”

همچنین: تشخیص عمیق دروغین در زمان واقعی: چگونه آزمایشگاه های اینتل از هوش مصنوعی برای مبارزه با اطلاعات نادرست استفاده می کند

نویسندگان این خطاها را به آشکارسازهای GPT نسبت دادند که به زبان پیچیده و جریمه کردن گزینه‌های ساده‌تر واژه‌ای که معمولاً توسط نویسندگان غیربومی انگلیسی استفاده می‌شود، ترجیح می‌دهند. آنها دریافتند که مقالات تافل دارای گیجی کمتری در متن است که یک مدل هوش مصنوعی را “متعجب” می کند. اگر پیش‌بینی کلمه بعدی در یک مقاله برای آشکارساز GPT سخت باشد، احتمالاً تصور می‌شود که یک انسان متن را نوشته است. اگر عکس آن درست باشد، فرض می‌کند که هوش مصنوعی آن را ایجاد کرده است.

شاید این مقاله را هم دوست داشته باشید :  19 بهترین بسترهای هوش مصنوعی برای بازاریابان و تحلیلگران بازاریابی در سال 2023

“اگر از کلمات رایج انگلیسی استفاده می‌کنید، آشکارسازها نمره گیجی پایینی می‌دهند، به این معنی که مقاله من احتمالاً به‌عنوان تولیدشده توسط هوش مصنوعی پرچم‌گذاری می‌شود. اگر از کلمات پیچیده‌تر و جذاب‌تر استفاده می‌کنید، احتمالاً به عنوان انسان نوشته شده توسط الگوریتم‌ها، “زو توضیح داد.

همچنین: اینگونه است که هوش مصنوعی مولد اقتصاد گیگ را برای بهتر شدن تغییر خواهد داد

تشخیص محتوای تولید شده توسط هوش مصنوعی، به طور کلی، می تواند دشوار باشد، به همین دلیل است که روش های تشخیص در قالب برنامه های کامپیوتری شخص ثالث رایج شده است. با این حال، این تحقیق نشان می‌دهد که این ابزارها می‌توانند نویسندگان انگلیسی غیربومی را در محیط‌های ارزیابی و آموزشی به حاشیه برانند.

زو توضیح داد: «اگر این آشکارسازها برای بررسی مواردی مانند درخواست های شغلی، مقالات ورودی کالج یا تکالیف دبیرستان استفاده شوند، می تواند عواقب قابل توجهی داشته باشد.

به طور متناقض، این مطالعه اشاره می کند که آشکارسازهای GPT بالقوه وجود دارد که انگلیسی زبانان غیر بومی را به استفاده از ابزارهای هوش مصنوعی مولدتر در تلاش برای فرار از تشخیص و بهبود مهارت های زبانی خود سوق دهند، که به آنها کمک می کند از آزار و اذیت بالقوه و دید محدود جلوگیری کنند. ناشی از تبعیض است.



امیدواریم از این مقاله مجله هشت پیک نیز استفاده لازم را کرده باشید و در صورت تمایل آنرا با دوستان خود به اشتراک بگذارید و با امتیاز از قسمت پایین و درج نظرات باعث دلگرمی مجموعه مجله 8pic باشید

امتیاز بدهید

لینک کوتاه مقاله : https://5ia.ir/wSBipV
کوتاه کننده لینک
کد QR :
اشتراک گذاری

شاید این مطالب را هم دوست داشته باشید

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *