Qualcomm си партнира с Meta за поддръжка на езиковия модел Llama 2 за смартфони и персонални компютри без облачен достъп
Meta съвместно с Microsoft представи новото поколение Large Language Model (LLM) — Llama 2, който да се използва в генеративните AI-приложения и услуги. Сега, както съобщава Qualcomm, той ще работи с Meta върху механизма за интегриране на Llama 2 в базираните на чипсетите Qualcomm Snapdragon електроники и по-специално в мобилните устройства.
Както Qualcomm заяви в прес-съобщение, целта на сътрудничеството е да се активират приложения и услуги, базирани на Llama 2 на такива устройства, без да е необходимо да ги свързвате към облака — това се изисква, например, когато се използват други AI-продукти като например ChatGPT и Bing Chat.
Способността да се използват големите езикови модели като Llama 2 на устройства като смартфон, компютър или AR/VR очила има редица предимства, каза Qualcomm.
Например, той позволява на разработчиците да спестят от облачни услуги, както и да предоставят на потребителите лично, по-сигурно и персонализирано изживяване от това, което може да се осигури чрез използване на облачна услуга.
Qualcomm има за цел да поддържа AI-услуги, базирани на Llama 2 на устройства, използващи чипсетите Qualcomm Snapdragon още през 2024 г. Вярно е, че все още не е известно дали такава поддръжка ще бъде предоставена само в новите чипсети или Qualcomm ще може по някакъв начин да организира съвместимост и с вече използваните.
Meta твърди, че Llama 2 е обучен с 40% повече данни от първото поколение Llama. Разработчикът вече обяви варианти за сътрудничество с Microsoft — моделът ще бъде предоставен безплатно на изследователи и търговски клиенти на облаците Azure. Възможно е също така да изтеглите и стартирате LLM локално на компютър с OS Windows.