آیا ممکن است کسی به دروغ شما را به استفاده از متن تولید شده توسط هوش مصنوعی متهم کند؟ این می تواند دلیل آن باشد
با مجله هشت پیک با مقاله ی آیا ممکن است کسی به دروغ شما را به استفاده از متن تولید شده توسط هوش مصنوعی متهم کند؟ این می تواند دلیل آن باشد
همراه ما باشید
هوش مصنوعی (AI) در چند ماه گذشته محبوبیت زیادی پیدا کرده است، اما برخی از زمینه ها از جمله آموزش همچنان بحث برانگیز هستند. بیشتر این نگرانی بر روی پتانسیل دانشآموزان برای استفاده از یک ابزار هوش مصنوعی مانند ChatGPT برای انجام کارهای خود، از جمله نوشتن یک مقاله یا ایجاد کد متمرکز است.
برخی از اساتید این فناوری را در کلاسهای خود مجاز میدانند، برخی دیگر آن را ممنوع میکنند، و برخی دیگر بنا به صلاحدید خود آن را مجاز میدانند، که ممکن است شامل بررسی دقیق کار دانشآموزان با آشکارسازهای GPT باشد. مقالهای که اخیراً توسط Patterns منتشر شده است نشان میدهد که محققان دریافتهاند که برنامههایی که برای تشخیص اینکه آیا متن توسط هوش مصنوعی تولید شده است یا انسان ساخته شدهاند، زمانی که توسط نویسندگان غیربومی انگلیسی نوشته میشود، اغلب به اشتباه آن را بهعنوان تولیدشده توسط هوش مصنوعی برچسبگذاری میکنند.
همچنین: این ابزار جدید هوش مصنوعی ابله های شما را به تصاویر باکیفیت تبدیل می کند
در این مطالعه، محققان عملکرد هفت آشکارساز GPT پرکاربرد را با 91 مقاله برای آزمون زبان انگلیسی به عنوان زبان خارجی (TOEFL) توسط چینی زبانان و 88 مقاله نوشته شده توسط دانشآموزان کلاس هشتم آمریکایی که از جایزه ارزیابی خودکار دانش آموزان بنیاد هیولت (ASAP).
آشکارسازهای GPT تمام مقالات دانشآموزان ایالات متحده را بهطور دقیق طبقهبندی کردند، اما بهطور نادرست به طور متوسط ۶۱ درصد از مقالات تافل را بهعنوان تولیدشده توسط هوش مصنوعی برچسبگذاری کردند. یکی از آشکارسازها به اشتباه 97.8 درصد از مقالات تافل را که توسط هوش مصنوعی تولید شده بودند، علامت گذاری کرد.
همچنین: اینها 4 برنامه مورد علاقه من برای چت ربات هوش مصنوعی برای اندروید هستند
این تحقیق همچنین نشان داد که این ردیابهای GPT آنقدرها که کاربرانشان فکر میکنند در کشف سرقت ادبی مؤثر نیستند. بسیاری از آشکارسازها دقت 99 درصدی را بدون مدرکی برای تأیید ادعاها تبلیغ می کنند.
محققان مقالاتی را با استفاده از ChatGPT تولید کردند و 70 درصد آنها به عنوان AI تولید شده توسط آشکارسازهای GPT شناسایی شدند. اما درخواست های ساده، مانند درخواست از ChatGPT برای “بالا بردن متن ارائه شده با استفاده از زبان ادبی”، متن را به اندازه کافی بهبود بخشید تا این رقم به 3٪ کاهش یابد، که به این معنی بود که آشکارسازهای GPT به اشتباه تشخیص دادند که 97٪ مقالات توسط انسان نوشته شده است. زمان.
جیمز زو، نویسنده ارشد از دانشگاه استنفورد، گفت: “توصیه فعلی ما این است که باید بسیار مراقب باشیم و شاید سعی کنیم تا حد امکان از استفاده از این آشکارسازها خودداری کنیم.”
همچنین: تشخیص عمیق دروغین در زمان واقعی: چگونه آزمایشگاه های اینتل از هوش مصنوعی برای مبارزه با اطلاعات نادرست استفاده می کند
نویسندگان این خطاها را به آشکارسازهای GPT نسبت دادند که به زبان پیچیده و جریمه کردن گزینههای سادهتر واژهای که معمولاً توسط نویسندگان غیربومی انگلیسی استفاده میشود، ترجیح میدهند. آنها دریافتند که مقالات تافل دارای گیجی کمتری در متن است که یک مدل هوش مصنوعی را “متعجب” می کند. اگر پیشبینی کلمه بعدی در یک مقاله برای آشکارساز GPT سخت باشد، احتمالاً تصور میشود که یک انسان متن را نوشته است. اگر عکس آن درست باشد، فرض میکند که هوش مصنوعی آن را ایجاد کرده است.
“اگر از کلمات رایج انگلیسی استفاده میکنید، آشکارسازها نمره گیجی پایینی میدهند، به این معنی که مقاله من احتمالاً بهعنوان تولیدشده توسط هوش مصنوعی پرچمگذاری میشود. اگر از کلمات پیچیدهتر و جذابتر استفاده میکنید، احتمالاً به عنوان انسان نوشته شده توسط الگوریتمها، “زو توضیح داد.
همچنین: اینگونه است که هوش مصنوعی مولد اقتصاد گیگ را برای بهتر شدن تغییر خواهد داد
تشخیص محتوای تولید شده توسط هوش مصنوعی، به طور کلی، می تواند دشوار باشد، به همین دلیل است که روش های تشخیص در قالب برنامه های کامپیوتری شخص ثالث رایج شده است. با این حال، این تحقیق نشان میدهد که این ابزارها میتوانند نویسندگان انگلیسی غیربومی را در محیطهای ارزیابی و آموزشی به حاشیه برانند.
زو توضیح داد: «اگر این آشکارسازها برای بررسی مواردی مانند درخواست های شغلی، مقالات ورودی کالج یا تکالیف دبیرستان استفاده شوند، می تواند عواقب قابل توجهی داشته باشد.
به طور متناقض، این مطالعه اشاره می کند که آشکارسازهای GPT بالقوه وجود دارد که انگلیسی زبانان غیر بومی را به استفاده از ابزارهای هوش مصنوعی مولدتر در تلاش برای فرار از تشخیص و بهبود مهارت های زبانی خود سوق دهند، که به آنها کمک می کند از آزار و اذیت بالقوه و دید محدود جلوگیری کنند. ناشی از تبعیض است.
امیدواریم از این مقاله مجله هشت پیک نیز استفاده لازم را کرده باشید و در صورت تمایل آنرا با دوستان خود به اشتراک بگذارید و با امتیاز از قسمت پایین و درج نظرات باعث دلگرمی مجموعه مجله 8pic باشید
لینک کوتاه مقاله : https://5ia.ir/wSBipV
کوتاه کننده لینک
کد QR :
آخرین دیدگاهها