Notice
Recent Posts
Recent Comments
Link
일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | 3 | 4 | 5 | ||
6 | 7 | 8 | 9 | 10 | 11 | 12 |
13 | 14 | 15 | 16 | 17 | 18 | 19 |
20 | 21 | 22 | 23 | 24 | 25 | 26 |
27 | 28 | 29 | 30 |
Tags
- Armeria
- 월급루팡 일지
- ㅉ때
- 논블록킹 성능
- R2DBC Paging
- intellij
- 개발 어렵당.ㅠ
- 플루터
- pinpoint 2.5.3
- OIDC
- 오블완
- UnsupportedOperationException
- Loki 로그
- jar 배포
- 노드간 통신
- jsonMarshaller
- RedirectService
- pinpoint
- 핀포인트
- 7879
- LPOS
- nGinder
- formik
- Ingress Controller Fake
- 애자일 싫타
- fake jwt
- hbase 저장공간 설정
- save/update
- reids
- 티스토리챌린지
Archives
- Today
- Total
대머리개발자
올리마(Ollama) 일단 그냥 설치 해보자. 본문
728x90
아무것도 모르는 상태에서 일단 설치!
더 읽어 봐야 ㅋㅋ 잠만 쏟아 진다. ㅡㅡ
# 윈도우 기준
1. https://ollama.com/ 접속해서 윈도우 setup 파일 다운로드 받고 실행하여 [next]만 하면 설치 완료된다.
2. cmd 창에서 정상 설치 확인한다.
3. 한글 잘 알고 있는 모델을 crate 한다.
3.1 Modelfile을 아래 와 같이 작성한다.
FROM llama-3.2-Korean-Bllossom-3B-gguf-Q4_K_M.gguf
PARAMETER temperature 0.6
PARAMETER top_p 0.9
TEMPLATE """<|start_header_id|>system<|end_header_id|>
Cutting Knowledge Date: December 2023
{{ if .System }}{{ .System }}
{{- end }}
{{- if .Tools }}When you receive a tool call response, use the output to format an answer to the orginal user question.
You are a helpful assistant with tool calling capabilities.
{{- end }}<|eot_id|>
{{- range $i, $_ := .Messages }}
{{- $last := eq (len (slice $.Messages $i)) 1 }}
{{- if eq .Role "user" }}<|start_header_id|>user<|end_header_id|>
{{- if and $.Tools $last }}
Given the following functions, please respond with a JSON for a function call with its proper arguments that best answers the given prompt.
Respond in the format {"name": function name, "parameters": dictionary of argument name and its value}. Do not use variables.
{{ range $.Tools }}
{{- . }}
{{ end }}
{{ .Content }}<|eot_id|>
{{- else }}
{{ .Content }}<|eot_id|>
{{- end }}{{ if $last }}<|start_header_id|>assistant<|end_header_id|>
{{ end }}
{{- else if eq .Role "assistant" }}<|start_header_id|>assistant<|end_header_id|>
{{- if .ToolCalls }}
{{ range .ToolCalls }}
{"name": "{{ .Function.Name }}", "parameters": {{ .Function.Arguments }}}{{ end }}
{{- else }}
{{ .Content }}
{{- end }}{{ if not $last }}<|eot_id|>{{ end }}
{{- else if eq .Role "tool" }}<|start_header_id|>ipython<|end_header_id|>
{{ .Content }}<|eot_id|>{{ if $last }}<|start_header_id|>assistant<|end_header_id|>
{{ end }}
{{- end }}
{{- end }}"""
SYSTEM """You are a helpful AI assistant. Please answer the user's questions kindly. 당신은 유능한 AI 어시스턴트 입니다. 사용자의 질문에 대해 친절하게 답변해주세요."""
3.2 허깅 페이스에서 모델을 다운로드 받는다.
https://huggingface.co/Bllossom/llama-3.2-Korean-Bllossom-3B-gguf-Q4_K_M/tree/main
Bllossom/llama-3.2-Korean-Bllossom-3B-gguf-Q4_K_M at main
huggingface.co
3.3 실행한다.
ollama create llama3-bllossom -f Modelfile
4. 모델 리스트를 확인한다.
5. 올라마 실행!
ollama run llama3-bllossom
제법 괜찮은 답변을 준데이!!
728x90
'개발이야기 > AI' 카테고리의 다른 글
무료 임베딩 기술 검토 및 TEST (0) | 2025.02.19 |
---|---|
deepseek - 오호... (0) | 2025.02.17 |
올라마 API 장착하기. (1) | 2025.02.07 |
랭체인 적용해서 서비스 해보자. (0) | 2025.02.05 |
개인형, 맞춤형 AI - 인트로 (2) | 2025.01.22 |