کوالکام و متا در سال 2024 هوش مصنوعی روی دستگاه را به گوشی های پرچمدار ارائه خواهند کرد

زمان مطالعه: 2 دقیقه

به گزارش مجله هشت پیک به نقل از Android Authority اتوریتی

چراغ‌های لوگوی Snapdragon Insiders از نزدیک‌تر گوشی هوشمند

رابرت تریگز / Android Authority

گزارشی از مجله هشت پیک :

  • کوالکام اعلام کرده است که مدل متا Llama 2 AI در سال 2024 به گوشی های پرچمدار اسنپدراگون می آید.
  • سازنده تراشه می گوید برای اجرای Llama 2 روی این گوشی ها نیازی به اتصال به اینترنت نخواهید داشت.
  • متا همچنین تایید کرد که مدل AI را منبع باز است.

این سازنده تراشه اعلام کرد که قابلیت‌های روی دستگاه را به گوشی‌ها و رایانه‌های شخصی پرچم‌دار سال 2024، به لطف مدل زبان بزرگ Llama 2 متا (LLM) خواهد آورد. کوالکام خاطرنشان می کند که این پشتیبانی انواع موارد استفاده را بدون نیاز به اتصال به اینترنت فعال می کند. این موارد استفاده آزمایشی شامل دستیارهای مجازی هوشمند، برنامه‌های کاربردی بهره‌وری، ابزارهای تولید محتوا، سرگرمی و غیره است.

این شرکت در بیانیه مطبوعاتی خود افزود: «تکنولوژی‌های کوالکام قرار است پیاده‌سازی هوش مصنوعی مبتنی بر Llama 2 را در دستگاه‌های مجهز به اسنپدراگون از سال 2024 به بعد در دسترس قرار دهد».

هیچ خبری وجود ندارد که متا سال آینده برنامه های مبتنی بر Llama 2 را با استنباط محلی روی تلفن های اسنپدراگون راه اندازی کند یا خیر. اما توسعه دهندگان برنامه های اندروید شخص ثالث مطمئناً ابزارهایی برای انتشار تلاش های خود خواهند داشت.

اخبار بیشتر لاما 2 برای به اشتراک گذاشتن

این تنها اعلامیه مربوط به Llama 2 نبود، زیرا متا فاش کرد که LLM را نیز منبع باز کرده است. متا ادعا می کند که تصمیم گرفته است با Llama 2 منبع باز شود تا کسب و کارها، استارتاپ ها، کارآفرینان و محققان به ابزارهای بیشتری دسترسی داشته باشند. این ابزارها “فرصت هایی را برای آزمایش، نوآوری در راه های هیجان انگیز و در نهایت بهره مندی اقتصادی و اجتماعی برای آنها باز می کند.”

شاید این مقاله را هم دوست داشته باشید :  OpenAI، Google و بیشتر با فهرست هشت تضمین ایمنی هوش مصنوعی کاخ سفید موافقت کردند

طبق بیانیه مطبوعاتی خود، به نظر می رسد متا معتقد است باز کردن دسترسی به هوش مصنوعی آن را ایمن تر می کند. این نشان می‌دهد که توسعه‌دهندگان و محققان می‌توانند LLM را آزمایش کنند، که به شناسایی و حل سریع‌تر مشکلات کمک می‌کند.

این شرکت همچنین توضیح می‌دهد که Llama 2 «تیم قرمز» شده است – با داشتن تیم‌های داخلی و خارجی «ایجاد درخواست‌های متخاصم» برای ایمنی آزمایش و تنظیم شده است. متا اضافه می کند که “به سرمایه گذاری در ایمنی از طریق تنظیم دقیق و معیار” مدل ادامه خواهد داد.

در نهایت، مایکروسافت و متا همچنین همکاری گسترده‌ای را اعلام کردند که باعث می‌شود مایکروسافت به شریک مورد علاقه Llama 2 تبدیل شود. شرکت Redmond اضافه کرد که LLM جدید در Azure و Windows پشتیبانی خواهد شد. Llama 2 از امروز در کاتالوگ مدل Azure AI در دسترس است و برای کار بر روی ویندوز به صورت محلی بهینه شده است. با این حال، از طریق خدمات وب آمازون (AWS)، Hugging Face و سایر ارائه دهندگان نیز در دسترس خواهد بود.

امتیاز بدهید
اشتراک گذاری

شاید این مطالب را هم دوست داشته باشید

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *