일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | ||||||
2 | 3 | 4 | 5 | 6 | 7 | 8 |
9 | 10 | 11 | 12 | 13 | 14 | 15 |
16 | 17 | 18 | 19 | 20 | 21 | 22 |
23 | 24 | 25 | 26 | 27 | 28 |
- 논블록킹 성능
- 7879
- pinpoint 2.5.3
- 핀포인트
- UnsupportedOperationException
- hbase 저장공간 설정
- formik
- OIDC
- reids
- 티스토리챌린지
- Loki 로그
- RedirectService
- ㅉ때
- 노드간 통신
- nGinder
- 플루터
- 오블완
- LPOS
- 월급루팡 일지
- R2DBC Paging
- 애자일 싫타
- jar 배포
- Armeria
- Ingress Controller Fake
- save/update
- intellij
- 개발 어렵당.ㅠ
- fake jwt
- jsonMarshaller
- pinpoint
- Today
- Total
목록2025/02 (6)
대머리개발자

기존 단순하게 테스트를 위해서 진행했던 부분을 고도화https://hcnmy.tistory.com/227 앱 푸시 - FCM자세한 내용은 해당 블로그에 확인한다. 너무나도 잘 기록되어있다. ㄳhttps://zuminternet.github.io/FCM-PUSH/ FCM 푸시 파헤치기파일럿부터 적용까지 진행했던 FCM 푸시를 파헤치며 기초 가이드북처럼 정hcnmy.tistory.com 일단 앱 푸쉬를 위한 남들 다하는 카프카는 By Pass 하였다. 많아야 천명 정도에 10개 미만으로 보내는 푸쉬이기 때문에....해보곤 싶었지만 투머취!! 충분히 Flux 만 활용해도 anyway!! 목표 : 1. 실패한 사용자(미설치, 미수신)에겐 문자를 보낸다.2. 푸쉬에 해당하는 알람을 생성 해야한다. (7일 보관..

무료 사용가능한 임베딩친구들이 많다.그 친구 내부에서도 많은 모델들이 있다...하악하악사용 목적과 성능 요구사항에 따라서 테스트해야 한다...ㅎㅂ 늘 말은 쉽다. 테스트 기준 : PDF(4.8MB) RAG TESTPDF 로더 : PDFPlumberSplitter : RecursiveCharaterText 1. SentenceTransformersEmbeddings몇 가지만 모델만 테스트 해보자. 사실 얼마나 많이 달라질까? 의구심이 들긴했지만...결과는 바로 나왔다. 빠르고 가벼운 모델은 임베딩은 빨랐지만 질문에 대한 답변을 하지 못했다. 바로 Skip임베딩이 아무리 빨리 된다고 하더라도.. 결과가 없으면...의미가 없는 건데.. 다른 모델들도 의미가 있나 싶다. 빠르고 가벼운 모델- all-MiniL..

https://huggingface.co/MaziyarPanahi/DeepSeek-llama3.1-Bllossom-8B-GGUF/tree/main MaziyarPanahi/DeepSeek-llama3.1-Bllossom-8B-GGUF at main huggingface.co 이것저것 테스트 해보려고 보고 있는데.. 따근따근하게 2틀전에..나왔네...성능이 너무 좋타.. 동일한 질문 "너가 가장 잘하는 답변 분야가 뭐지?"DeepSeek-llama3.1-Bllossom-8B.Q6_K.gguf 딥시크의 답변 : 라마의 답변 : llama-3-Korean-Bllossom-8B-Q4_K_M.gguf두 LLM 모델 모두 "과기대"에서 한국어 연결을 강화시킨 모델이다. 뭔가 반응속도도 그렇고 빠릿빠릿한 느낌이다...

지금까지는 콘솔에서 테스트를 했지만.. 좀 더 우아(?)하게순수 코어만 TEST 하려면 크롬 확장 프로그램을 이용해 간단하게 해 볼 수 있다.크롬 확장 프로그램에서 올라마를 찾아서 설치하면 딱 끝! A-Z까지 이미 먼저 건너간 선배님들이 다 해놓았다 우리는 그냥 숟가락 들 힘만 있으면 된다. 늘 고맙습니다!! 물론 우린 api를 통해서 진행할 부분이지만 그냥 웹UI 형태로 테스트 해보고 싶었따.빠르게 테스트 해보고 싶다면 크롬 확장프로그램을 추천하는 바이다. 자바 대에충 8년.. 코틀린 대에충2년..써보다가파일썬 플라스크 보니깐.. 와.. 너무 간결하다.. 심플하다. 와.. 이러니깐. 서버리스에서 인기 있는 언어로 많이 쓰이는구만. 머물러 있지 말자!!@app.route("/ask", methods=["..

파일SUN!! 조으다.from langchain_ollama import OllamaLLM# modelollama = OllamaLLM( base_url='http://localhost:11434', model="llama3-bllossom" )# chain 실행print(ollama.invoke("주식을 잘하려면 어떻게 해야 하나요?")) >> 응답!! 대에충 콘솔이랑 비슷하게 나온다. 영어로 질문하면 영어로 답변 한다.무조건 답변을 한글로 하려면 간단하다. 질문에 앞 문장에서 "한국어로 답변해주세요" 하면 된다.필터의 느낌으로. ㅎbefore_prompt = "한국어로 답변하세요!"# chain 실행print(ollama.invoke(before_prompt + " how good stocks ")..

아무것도 모르는 상태에서 일단 설치!더 읽어 봐야 ㅋㅋ 잠만 쏟아 진다. ㅡㅡ # 윈도우 기준1. https://ollama.com/ 접속해서 윈도우 setup 파일 다운로드 받고 실행하여 [next]만 하면 설치 완료된다.2. cmd 창에서 정상 설치 확인한다. 3. 한글 잘 알고 있는 모델을 crate 한다.3.1 Modelfile을 아래 와 같이 작성한다.FROM llama-3.2-Korean-Bllossom-3B-gguf-Q4_K_M.ggufPARAMETER temperature 0.6PARAMETER top_p 0.9TEMPLATE """systemCutting Knowledge Date: December 2023{{ if .System }}{{ .System }}{{- end }}{{- if..