On-Prem AI 서비스-(4) Ollama 후기
※ 이전 글:On-Prem AI 서비스-(1) dcgm-exporter 구성On-Prem AI 서비스-(2) prometheus + grafana 설정On-Prem AI 서비스-(3) Local LLM은 왜 필요할까?OllamaGPU 사용 준비를 마치고 Local...
On-Prem AI 서비스-(2) prometheus + grafana 설정
※ 이전 글: On-Prem AI 서비스-(1) dcgm-exporter 구성개인 장비에서 다양한 AI 모델을 시험하다 보니 GPU 자원을 얼마나 사용하는지 소비 전력이나 온도 상승은 어느 정도인지...
ffmpeg for CUDA 이용한 MP4-to-GIF 변환
CUDA 지원 ffmpeg 빌드ffmpeg의 decode/encode에 Nvidia GPU를 사용하면 변환 속도를 향상 할 수 있습니다. CUDA를 지원하도록 빌드한 ffmpeg은 없는지 소스 빌드를 하도록 안내를 하고...












