چه اتفاقی می افتد اگر یک هوش مصنوعی فوق هوشمند سرکش شود؟ OpenAI نمی خواهد بفهمد
اگر روزی یک هوش مصنوعی فوقهوشمند باهوشتر از باهوشترین انسانها سرکشی کند، چه اتفاقی میافتد؟ تیم جدیدی در OpenAI آماده شده است تا مطمئن شود که ما هرگز متوجه نمی شویم.
OpenAI در اطلاعیه ای در این هفته گفت که در حال ایجاد تیمی برای “هدایت و کنترل سیستم های هوش مصنوعی بسیار هوشمندتر از ما است.”
همچنین: پیش از هوش مصنوعی، این موج فناوری دیگر به سرعت در حال گسترش است
آزمایشگاه هوش مصنوعی ادامه داد که ابرهوشی که می تواند ظرف یک دهه آینده وارد شود، تاثیرگذارترین فناوری ایجاد شده خواهد بود و می تواند به حل مهم ترین مشکلات جهان کمک کند. اما آن را با یک هشدار نسبتاً وحشتناک دنبال کرد که “همچنین می تواند بسیار خطرناک باشد و می تواند منجر به ناتوانی بشریت یا حتی انقراض انسان شود.”
این شرکت میگوید همانطور که وجود دارد، انسانها میتوانند هوش مصنوعی را کنترل کنند زیرا باهوشتر هستند. اما چه اتفاقی می افتد که هوش مصنوعی از انسان ها عبور می کند؟
اینجاست که تیم جدید، به رهبری دانشمند ارشد فعلی آزمایشگاه تحقیقاتی و رئیس فعلی همترازی، وارد می شود. علاوه بر این رهبری، تیم متشکل از محققان و مهندسان برتر OpenAI به اضافه 20 درصد از توان محاسباتی فعلی آن خواهد بود.
همچنین: ویژگی مرور ChatGPT تنها یک هفته پس از عرضه غیرفعال شد – دلیل آن در اینجا آمده است
هدف نهایی ایجاد یک “محقق هم ترازی خودکار در سطح انسانی” یا یک سیستم هوش مصنوعی است که به یک هدف تعیین شده دست یابد و از پارامترهای مجموعه خارج نشود. این تیم قصد دارد این کار را در سه مرحله انجام دهد:
- درک درستی از نحوه تجزیه و تحلیل هوش مصنوعی دیگر بدون تعامل انسانی ایجاد کنید
- از هوش مصنوعی برای جستجوی مناطق مشکل دار یا اکسپلویت استفاده کنید
- عمداً برخی از هوش مصنوعی را به اشتباه درآورید تا ببینید آیا این هوش مصنوعی شناسایی می شود یا خیر
به طور خلاصه، تیمی از انسان ها در OpenAI از هوش مصنوعی برای کمک به آموزش هوش مصنوعی برای تحت کنترل نگه داشتن هوش مصنوعی فوق العاده هوشمند استفاده می کنند. و آنها فکر می کنند که در چهار سال آینده به نتیجه می رسند. آنها اعتراف می کنند که این یک هدف بلندپروازانه است و موفقیت تضمین شده نیست، اما به کار خود اطمینان دارند.
لینک کوتاه مقاله : https://5ia.ir/maH
کوتاه کننده لینک
کد QR :
آخرین دیدگاهها