처음으로 Opera에서는 사용자가 로컬에서 LLM을 실행할 수 있습니다.

처음으로 Opera에서는 사용자가 로컬에서 LLM을 실행할 수 있습니다.

Opera는 최근 Opera One 사용자가 개인용 컴퓨터에서 LLM(대형 언어 모델)을 다운로드하고 활용할 수 있는 새로운 기능을 추가했습니다. 이 기능은 개발자 스트림 업데이트를 받는 사용자가 액세스할 수 있으며 Meta의 Llama, Google의 Gemma, Vicuna, Mistral AI 등과 같은 다양한 제품군의 150개 이상의 모델에 대한 액세스를 제공합니다.

Opera의 브라우저 및 게임 담당 EVP인 Krystian Kolondra에 따르면 그는 다음과 같이 말했습니다 .

“이러한 방식으로 로컬 LLM을 도입함으로써 Opera는 빠르게 부상하는 로컬 AI 공간 내에서 경험과 노하우를 구축하는 방법을 탐색하기 시작할 수 있습니다.”

Opera는 이러한 최신 추가 사항을 “AI 기능 드롭 프로그램”의 일부로 표시하고 사용자 데이터가 장치에 계속 저장되어 서버에 데이터를 보낼 필요 없이 생성 AI를 활용할 수 있도록 보장합니다. 이 회사는 Ollama 오픈 소스 프레임워크를 사용하여 이러한 모델을 사용자 컴퓨터에서 직접 실행하고 있습니다. 각 모델 버전은 장치에서 2~10GB의 저장 공간을 차지합니다.

오페라 원 로컬 LLM

오페라는 이러한 새로운 기능의 도입을 통해 AI 기술 활용 트렌드에 동참하기 위해 많은 노력을 기울이고 있습니다. 하지만 지난해 오페라 원(Opera One) 출시처럼 AI를 탑재한 브라우저가 처음은 아니다. 이러한 움직임은 선도적인 AI 중심 브라우저가 되겠다는 회사의 목표를 확고히 했으며, 이는 AI 비서인 Aria의 출시로 더욱 입증되었습니다. 독특하고 창의적인 기능을 제공함으로써 이러한 업데이트는 Opera의 시장 점유율을 높이는 데 도움이 될 것으로 예상됩니다. 2023년 12월 Statcounter의 보고서에 따르면 Opera는 3.8%의 시장 점유율을 차지하며 상위 5대 데스크톱 브라우저 중 하나로 선정되었습니다.

Opera에서 이 새로운 기능을 경험하려면 최신 버전의 Opera Developer로 업데이트하고 다음 지침에 따라 장치에서 로컬 LLM을 활성화하세요. 이를 통해 사용자가 Aria와 채팅을 시작하거나 다시 활성화하지 않는 한 사용자의 컴퓨터는 Opera의 AI 보조 Aria 대신 로컬 LLM을 사용할 수 있습니다.

답글 남기기

이메일 주소는 공개되지 않습니다. 필수 필드는 *로 표시됩니다