목차
OpenClaw가 아직 Moltbot 이란 이름을 가지고, AI 기술 분야에서 회자되기 시작할 무렵에 OpenClaw 설치를 시작했었습니다. 사용자 가이드가 부실하고 체계가 잡혀 있지도 않았기에 OpenClaw AI Agent 구성하는 단계부터 많은 혼란을 겪었습니다. 시간이 지나면서 사용자들이 정리한 다양한 설치 가이드가 나오고 있으니 지금 시작하시는 분들에게는 도움이 될 겁니다. 현재 필자는 RPi 4 + OpenClaw와 Telegram, Ollama(Local LLM+Cloud)로 기본적인 실행 환경을 마쳤습니다. 이 과정에서 경험했던 좌충우돌 삽질 기록을 남깁니다.
전용 장비 vs. Docker Sandboxing
AI Agent는 사용자 분신이라고 할 수 있어서 작업을 원할히 할 수 있기에 서버 관리자와 동급의 접근 권한을 주는 것이 편합니다. 접근 권한이 크다는 것은 보안 위험이 있는 것이기에 처음 OpenClaw 설치는 docker 이용한 sandbox 구성을 시도했습니다. OpenClaw AI agent 자체를 docker sandbox 로 구성하는 것은 어렵지도 않고 문제도 없습니다. 실제 문제는 agent가 작업을 할 때마다 새로운 docker instance를 만드는 구조에서 생겼습니다. 필자가 이해하는 1개 작업은 한 번의 Prompt로 원하는 결과물을 얻는 것을 생각했는데 실제 OpenClaw는 사용자가 지시한 산출물을 만들어 내기까지 여러 번의 내부 작업이 필요하고, 매 번 새로운 docker instance를 생성해서 작업을 합니다. 즉, 사람이 지시한 Prompt는 1개지만 AI agent는 작업자가 원하는 최종 산출물을 만들기 위해서 AI Agent<=> LLM (AI) 대화에서 무수한 작업 생성을 필요할 수 있다는 것이고, 매 작업 마다 새롭게 docker instance 를 만든다고 합니다. 이 과정에서 가장 큰 문제는 새로운 docker instance 간 작업 연결성을 유지하기 위한 중간 산출물 공유와 관리를 어떻게 해야 할지도 전혀 모르겠다는 것입니다. 아직까지 사용자 가이드가 많이 부족한 상태입니다.
결국, docker 이용한 구성을 포기하고 아예 독립적인 RPi 4에다 OpenClaw AI agent를 설치했습니다.
Local LLM vs 상용 AI
초기 부터 현재까지 OpenClaw 사용에 가장 주의할 점이 있습니다. 바로 상용 AI API 사용 비용입니다. OpenAI, Gemini, Anthropic 등 상용 AI API 사용 요금은 API 호출 횟수와 Token 양에 비례합니다. OpenClaw의 두뇌 역할을 하는 LLM 연결에 상용 AI API가 필요한데 문제는 OpenClaw가 사용하는 Token량을 모른다는 겁니다. 이런 문제는 OpenClaw 뿐만 아니고 다른 AI Agent들도 비슷하게 가지고 있을 것 같습니다. AI Agent는 사용자 지시를 LLM을 이용해서 분석하고 LLM 분석 결과에 따라 새로운 작업 명령을 만듭니다. 최종 산출물을 얻기까지 AI Agent<=>LLM간 대화가 몇 번이나 이루어지느냐에 따라 상용 AI 사용량이 달라지기 때문에 대화량 증가에 따라 비례해서 하루에 수 백~수 천 달러의 사용 요금이 발생하거나 사용 제한(rate limit) 상태 또는 아예 차단되는 상태가 발생하기도 합니다. Local LLM을 사용한다면 이 비용을 아낄 수 있겠다는 생각에 Ollama로 Gemma3:12B, GPT-OSS:20B 모델을 사용해 보았습니다만 소형 모델로는 아무래도 한계가 있었습니다. GPT-OSS:120B, kimi-2.5와 같은 대형 모델을 Local에서 실행하기에는 하드웨어 사양이 비싸집니다. 결국, 무료로 사용 가능한 ollama cloud와 kimi-2.5 모델을 이용하는 것으로 구성했습니다.
MAC Mini, DGX Spark, Strix Halo가 필요할까?
OpenClaw에는 반드시 LLM이 필요합니다. Kimi-2.5, GPT-OSS:120B 모델 등 대용량 AI 모델 사용을 위해서는 최소 128GB VRAM이 필요한데 일반 RTX 40xx, 50xx의 VRAM이 32GB이니 128GB 구성하려면 4개는 필요합니다. 요즘 GPU 구입하기도 쉽지 않지만 가격은 정말 천정 부지로 치솟게 됩니다. 이의 대안으로 Local LLM 구성을 위한 하드웨어로서 많이 언급되는 것이 CPU/GPU 통합 메모리를 지원하는 MAC Mini, Nvidia DGX spark, AMD Strix Halo 들입니다. 이 장비들 가격도 천 만원은 기본으로 넘기는데 AI 성능이 GPU 구성 대비 현저히 떨어지는 상황입니다. 즉, 개인이 Local LLM 구축에 들일 비용 수준을 넘기기 때문에 Local LLM 구축하지 말고 무료 AI API 사용하는 것을 추천합니다. 필자도 ollama cloud 무료 버전을 사용해서 시험하고 있습니다. 필자의 OpenClaw 2026-2-27 소식에도 보면 무료 AI API 사용을 도와주는 도구에 대한 내용이 있습니다.















