Tag: llm
All the articles with the tag "llm".
-
Qwen3.5 크로스 플랫폼 벤치마크: 4대 하드웨어 × 5개 엔진 성능 비교
Updated:Mac M5 Max, RTX 3090×2, DGX Spark, Ryzen AI MAX 395+에서 Qwen3.5를 동일 조건으로 측정한 벤치마크. cold prefill, cache 차단, 실행 순서 랜덤화 적용.
-
로컬 LLM 추론 벤치마크: 4대 하드웨어 × 5개 엔진 실험 설계
Updated:Qwen3.5 모델을 4개 플랫폼(M5 Max, RTX 3090×2, DGX Spark, Ryzen AI MAX 395+)에서 측정하는 크로스 플랫폼 벤치마크의 실험 설계, 방법론, 주의사항을 정리합니다.
-
Qwen3.5 로컬 추론 벤치마크 결과표: 4대 하드웨어 × 5개 엔진
Updated:M5 Max, RTX 3090×2, DGX Spark GB10, Ryzen AI MAX 395에서 Qwen3.5 4개 모델(9B~122B)의 생성 속도, 프리필 속도를 llama.cpp, MLX, Ollama, vLLM, Lemonade로 측정한 결과 비교표.
-
DeepCoWork #10: LLM 프로바이더 통합 -- 5개 백엔드, 모델 자동 감지, 빌드 변형
Anthropic, OpenRouter, Ollama, LM Studio, vLLM 5개 프로바이더를 하나의 인터페이스로 통합하는 설계 과정을 공유합니다.
-
GraphRAG 파이프라인 실전 구축 — 벡터 검색에서 그래프 확장까지
벡터 RAG만으로 답할 수 없는 멀티홉 질문을 GraphRAG로 해결하는 방법. from_existing_graph 한 줄로 노드 벡터화, CypherQAChain으로 자연어→Cypher 자동 변환까지.