히스토리
- Created!
- ©캐글 ©허깅페이스 - 데이터과학 머신러닝 커뮤니티 플랫폼
관련메타
BIBLIOGRAPHY
“Ollama.” n.d. Accessed July 1, 2025. https://ollama.com.
Ollama 설치
➜ curl -fsSL https://ollama.com/install.sh | sh
설치 로그
Note
>>> Installing ollama to /usr/local [sudo] goqual 암호: >>> Downloading Linux amd64 bundle ######################################################################## 100.0% >>> Creating ollama user… >>> Adding ollama user to render group… >>> Adding ollama user to video group… >>> Adding current user to ollama group… >>> Creating ollama systemd service… >>> Enabling and starting ollama service… Created symlink /etc/systemd/system/default.target.wants/ollama.service → /etc/systemd/system/ollama.service. >>> Downloading Linux ROCm amd64 bundle ######################################################################## 100.0% >>> The Ollama API is now available at 127.0.0.1:11434. >>> Install complete. Run “ollama” from the command line. >>> AMD GPU ready. ~ took 1m17s
관련링크
Ollama
(“Ollama” n.d.) Get up and running with large language models.
Note
junghan junghanacs@gmail.com
허깅페이스와 ollama와 차이점은?
허깅페이스(Hugging Face) vs Ollama 차이점
기준 | 허깅페이스 (Hugging Face) | Ollama |
---|---|---|
주요 기능 | AI 모델 호스팅/공유, 라이브러리 제공 (Transformers 등) | 로컬에서 LLM 실행/관리 도구 |
사용 목적 | 모델 개발/배포/실험, 커뮤니티 기반 협업 | 개인용 로컬 LLM 실행 (간편 CLI 중심) |
실행 환경 | 클라우드/로컬 (별도 설정 필요) | 로컬 전용 (최적화된 자동 설정) |
모델 지원 | 모든 오픈소스 LLM (다양한 프레임워크 호환) | 사전 패키징된 주요 모델 (LLaMA, Mistral 등) |
인터페이스 | Python 코드/API/웹 UI (Spaces) | CLI 중심 (간단한 명령어로 실행) |
장점 | 유연성, 커스터마이징, 연구/개발 용도 | 사용 편의성, 빠른 로컬 배포 |
요약
- 허깅페이스: 개발자/연구자용, 모델 실험/배포에 강점
- Ollama: 일반 사용자용, 로컬에서 간편하게 LLM 실행
- 호환성: Ollama는 허깅페이스 모델을 직접 실행할 수 없음 (별도 변환 필요).