히스토리

관련메타

BIBLIOGRAPHY

“Ollama.” n.d. Accessed July 1, 2025. https://ollama.com.

Ollama 설치

 curl -fsSL https://ollama.com/install.sh | sh

설치 로그

Note

>>> Installing ollama to /usr/local [sudo] goqual 암호: >>> Downloading Linux amd64 bundle ######################################################################## 100.0% >>> Creating ollama user… >>> Adding ollama user to render group… >>> Adding ollama user to video group… >>> Adding current user to ollama group… >>> Creating ollama systemd service… >>> Enabling and starting ollama service… Created symlink /etc/systemd/system/default.target.wants/ollama.service → /etc/systemd/system/ollama.service. >>> Downloading Linux ROCm amd64 bundle ######################################################################## 100.0% >>> The Ollama API is now available at 127.0.0.1:11434. >>> Install complete. Run “ollama” from the command line. >>> AMD GPU ready. ~ took 1m17s

관련링크

Ollama

(“Ollama” n.d.) Get up and running with large language models.

Note

허깅페이스와 ollama와 차이점은?

허깅페이스(Hugging Face) vs Ollama 차이점

기준허깅페이스 (Hugging Face)Ollama
주요 기능AI 모델 호스팅/공유, 라이브러리 제공 (Transformers 등)로컬에서 LLM 실행/관리 도구
사용 목적모델 개발/배포/실험, 커뮤니티 기반 협업개인용 로컬 LLM 실행 (간편 CLI 중심)
실행 환경클라우드/로컬 (별도 설정 필요)로컬 전용 (최적화된 자동 설정)
모델 지원모든 오픈소스 LLM (다양한 프레임워크 호환)사전 패키징된 주요 모델 (LLaMA, Mistral 등)
인터페이스Python 코드/API/웹 UI (Spaces)CLI 중심 (간단한 명령어로 실행)
장점유연성, 커스터마이징, 연구/개발 용도사용 편의성, 빠른 로컬 배포

요약

  • 허깅페이스: 개발자/연구자용, 모델 실험/배포에 강점
  • Ollama: 일반 사용자용, 로컬에서 간편하게 LLM 실행
  • 호환성: Ollama는 허깅페이스 모델을 직접 실행할 수 없음 (별도 변환 필요).