※ 이전 글:

Open WebUI

ollama는 기본적으로 텍스트 기반 UI 를 제공합니다. 이전 글에서 언급했었지만 단일 주제 대화는 문제가 없지만 AI 모델 변경 과정이 불편하고 ( “대화 중단>ollama TUI 중지=>AI 모델 변경“), 과거 대화 이력 관리도 불가하며, 대화 주제별 관리가 불가능합니다. Open WebUI 는 ChatGPT, Gemini와 같은 Web UI 로서 ollama 와 함께 사용할 수 있습니다.

AD

Open WebUI 설치

Docker 이용한 설치는 무척 간단하게 할 수 있습니다. 아래는 docker-compose.yml 예제입니다.

Bash
services:
  open-webui:
    image: ghcr.io/open-webui/open-webui:main	 # default
    container_name: open_webui          # (선택) 컨테이너 이름
    restart: always                     # 재시작 정책
    ports:
      - "3000:8080"                     # 호스트 3000 포트 → 컨테이너 8080 포트
    volumes:
      - ./data:/app/backend/data
    extra_hosts:
      - "host.docker.internal:172.22.0.1"  # 호스트 내부 접근용
    environment:
      - DOCKER=True
      - OLLAMA_BASE_URL=http://host.docker.internal:11434  # Ollama
    networks:
      - open_webui_default

networks:
  open_webui_default:
    external: true
  • volumes: Open WebUI에서 사용할 data 저장 공간을 docker volume 또는 임의의 폴더를 만들어서 지정
  • extra_hosts: ollama 서비스와 통신이 가능한 host 정보를 docker 내부에 정의할 경우 사용.
  • OLLAMA_BASE_URL: ollama 서비스 주소.

Open WebUI 접속

Open WebUI instance 실행이 성공하면 http://<Open WebUI IP>:3000 으로 접속 가능합니다.

관리자 계정을 생성하기 위한 최초 접속 화면.

관리자 계정을 등록하면 Open WebUI 대화 화면을 볼 수 있습니다.

Open WebUI

Open WebUI는 AI 모델 변경, 대화 이력 관리, 외부 도구와의 연계 등 다양한 기능을 제공하고 있기에 ollama TUI 보다 훨씬 편하게 Local LLM 사용 환경을 구축할 수 있습니다.

AD

LEAVE A REPLY

Please enter your comment!
Please enter your name here