За първи път Opera вече ще позволи на потребителите да стартират локално LLMs

За първи път Opera вече ще позволи на потребителите да стартират локално LLMs

Opera наскоро добави нова функция, която позволява на потребителите на Opera One да изтеглят и използват големи езикови модели (LLM) на своите персонални компютри. Тази функция е достъпна за потребители, които получават актуализации на потока от разработчици и осигурява достъп до над 150 модела от различни семейства, като Llama от Meta, Gemma от Google, Vicuna, Mistral AI и други.

Според Krystian Kolondra, EVP за браузъри и игри в Opera, той каза :

„Въвеждането на местни LLMs по този начин позволява на Opera да започне да проучва начини за изграждане на преживявания и ноу-хау в рамките на бързо развиващото се местно AI пространство.“

Opera е обозначила тези най-нови допълнения като част от своята „Програма за намаляване на функциите на AI“ и обещава, че потребителските данни ще останат съхранени на тяхното устройство, което им позволява да използват генериращ AI без изискване за изпращане на каквито и да било данни до сървър. Компанията използва рамката с отворен код Ollama, за да изпълни тези модели директно на компютрите на потребителите. Всяка версия на моделите заема 2-10GB място за съхранение на устройството.

Opera One местен LLM

Opera полага големи усилия да се присъедини към тенденцията за използване на AI технология с въвеждането на тези нови функции. Това обаче не е първият случай на браузъра, включващ AI, както се видя с пускането на Opera One миналата година. Този ход затвърди целта на компанията да стане водещ браузър, фокусиран върху AI, което беше допълнително демонстрирано с пускането на техния AI асистент, Aria. Като предлагат различни и изобретателни функции, тези актуализации се очаква да помогнат на Opera да увеличи пазарния си дял. Според доклад на Statcounter през декември 2023 г. Opera завоюва пазарен дял от 3,8% и се класира сред първите 5 браузъра за настолни компютри.

За да изпробвате тази нова функция в Opera, просто актуализирайте до най-новата версия на Opera Developer и следвайте тези инструкции , за да активирате локални LLM на вашето устройство. Това ще позволи на машината на потребителя да използва локалния LLM вместо AI асистента на Opera Aria, освен ако потребителят не инициира чат с Aria или не го активира отново.