Meta가 Moltbook을 인수했다고 합니다. OpenAI에서 발표한 수학/과학의 시각 효과 기능, 다양한 OpenClaw 사용 후기를 읽어 보세요.

AD

Axio 기사에 따르면 Meta가 AI Agent을 위한 소셜 네트워크 Moltbook 을 인수했다고 합니다. 동시에 Moltbook을 만든 Matt Schlicht , Ben Parr 두 사람을 Meta의 인공지능 LAB인 Meta Superintelligence Labs (MSL)에 참여 시켰다고 합니다. 인수 가격은 밝히지 않았고, 3월 중순,계약 완료하는 대로 3/16 부터는 MSL 소관이 될 것으로 기대한다고 합니다.

명령어 계층 구조, 안전 제어 기능 및 Prompt Injection 안정성을 강화하는 학습 데이터 세트인 IH-Challenge를 소개합니다. (필자 주; IH = Instruction hierarchy ?)

  • 목적: 모델이 여러 출처의 명령(시스템·개발자·사용자·도구)을 신뢰도(=우선순위)에 따라 올바른 우선 순위에 따라 학습 시켜 안전성과 신뢰성을 높임.
  • 지침 계층(instruction hierarchy): System > Developer > User > Tool. 상위 지침과 충돌하면 하위 지침을 따르지 않아야 함.

최근 출시한 GPT‑5 Mini-R(=IH 훈련 적용 모델)은 Instruction-hierarchy 벤치마크, 적대적/보류(held-out) 공격에 대해 개선을 보였다고 합니다.

결론적으로 IH-Challenge로 훈련하면 모델이 상위 지침을 더 잘 지키고(안전성↑), prompt injection에 강해지며(보안↑), 전반적 유용성은 크게 해치지 않는다는 결과를 얻었다고 합니다.

수학과 과학 수식/이론을 시각적으로 보여 주는 기능에 대한 소개입니다. 오른쪽 수식의 변수를 슬라이더를 통해서 변경하면 왼쪽의 도형이 변수에 따라 변화하는 모습을 실시간으로 보여 줍니다. 아직 모든 수식에 대해서 시각적 효과를 추가해서 보여 주지는 않는 것 같습니다. 예를 들어 1차 미분방정식 시각화는 준비 중이라고 합니다.

TADA (Text Audio Dual Alignment)는 토큰 수준의 오류를 줄이고 지연 시간을 개선하기 위해 텍스트와 오디오를 하나의 동기화된 스트림으로 생성하는 음성-언어 모델입니다.

  • 1,000개 이상의 테스트 샘플에서 내용 환각은 전혀 발생하지 않았습니다.
  • 유사 등급 LLM 기반 TTS보다 5배 빠름
  • 훨씬 더 긴 오디오를 처리할 수 있습니다. TADA를 사용하면 2,048개의 토큰으로 약 700초를 처리할 수 있는 반면, 기존 시스템에서는 약 70초만 처리할 수 있습니다.
  • 오디오와 함께 지연 없이 무료로 제공되는 텍스트

※ HuggingFace: https://huggingface.co/collections/HumeAI/tada

“Nanocoder는 Claude Code 및 Gemini CLI와 같은 에이전트 기반 코딩 도구의 강력한 기능을 로컬 모델이나 OpenRouter와 같은 제어 가능한 API에 제공하는 로컬 우선 CLI 코딩 에이전트입니다. 개인 정보 보호 및 제어를 염두에 두고 설계된 Nanocoder는 파일 작업 및 명령 실행을 위한 도구 지원을 통해 여러 AI 제공업체를 지원합니다. ” – 소개글

저자가 밝힌 개발 이유가 의미 심장합니다. OpenCode와 달리 기업 위주의 코딩 에이전트 환경에 구속되지 않아서 오픈 소스 환경에 제약이 없고, 진정한 커뮤니티 주도 개발이 가능하도록 개발했다고 합니다. 물론, AI provider 와의 연결은 필요합니다.

reddit 사용자 hauhau901 Qwen3.5 모델의 안전 제약을 제거한 모델을 발표했습니다. 일반적으로 모든 AI 모델은 학습하지 전이 사회적,윤리적 “위험(?)”한 데이터를 필터링하고 훈련하고 있습니다. 일종의 “안전 장치”을 가지고 있는 셈인데 이를 제거한 모델을 만든 것이라고 보면 될 것 같습니다. 중국 알리바바에서 개발한 Qwen 모델이다 보니 안전 장치 제거 또는 무검열 여부 시험을 위해 “천안문 광장”에 대한 질문을 해 봤냐는 댓글도 있습니다. 이런 식의 안전 장치를 해제한 AI 모델이 나오는 것이 위험일지 유익일지?

뭔가를 하기 전에 필자에게 알려 줬으면 했던 모든 것:

1단계: 기본 모델을 지금 바로 변경하세요
2단계: 어떤 것도 연결하기 전에 게이트웨이를 잠그세요
3단계: 무엇보다 먼저 SOUL.md를 설정하세요
4단계: 아직 스킬을 설치하지 마세요
5단계: 두 번째 에이전트를 만들지 마세요
6단계: /new 명령어를 익히세요
7단계: 처음 2주 동안은 비용을 매일 확인하세요

OpenClaw이용해서 월 $50로 24/7 AI 회사를 운영하는 법

첫 설치 후, 9개의 agent를 실행하다가 3일 동안 $200 이상을 사용료로 지불하기도 하고, Google에서 Ban을 당하기도 했다고 합니다. 저자는 문제 해결을 위해 Heartbeat를 LM Studio로 이전하고, agent 수를 9개에서 2개로 줄였다고 합니다. 코딩 에이전트용으로 MiniMax M.25를 이용하고 작업 복잡성을 낮췄다고 합니다.

아래와 같이 AI 구성했다고 합니다.

  • LM Studio에서 사용할 수 있는 Heartbeat 시뮬레이션용 로컬 모델(무료)
  • Qwen 3 4B (라우팅 및 툴 사용)
  • Gemma 3 4B (명령어 추적)
  • MiniMax M2.5 (고난도 사고 및 코딩 작업)

그나저나 MiniMax 가격이 최소 $100 이던데 $50은 어디서 나온 숫자일지 모르겠습니다.

사건 개요

  • 작성자(Alert_Efficiency_627)이 멀티 에이전트 스웜(Orchestrator, Coder, QA)을 밤새 돌려 코드 리팩터링을 시도함.
  • Coder가 JSON 객체에서 콤마 하나를 빠뜨린 코드 블록을 출력했고, QA가 이를 잡아 수정하라고 지시함.
  • Coder가 같은 잘못된 코드를 자신있게 재생산(hallucinate)했고, max_retries 로직 버그 때문에 동일한 오류가 에이전트들 사이에서 약 12,000번 교환되어 무한 루프에 빠짐.
  • 모든 호출을 GPT-4o로 직접 라우팅한 탓에 토큰 폭증이 발생해 약 6시간 만에 $340 청구 발생.


주요 원인 분석

  • 에러 처리 로직(특히 재시도/종료 조건)이 취약해서 무한 루프 초래.
  • 각 API 호출에 대화 전체 히스토리를 계속 덧붙여 토큰 누적(최종적으로 80,000 토큰 낭비).
  • 원시(provider) 키를 애플리케이션에 직접 두고 있어 비용 제어가 어려움.


저자가 취한 개선 조치(아키텍처)

  • 모든 에이전트 호출을 통합 API 게이트웨이(예: AIsa)를 통해 라우팅 — 직접 OpenAI/Anthropic에 호출하지 않음.
  • 게이트웨이에서 에이전트별로 하드 쿼터/한도 설정(예: QA 에이전트에 $2.00 한도). 문제가 생기면 게이트웨이가 호출을 차단해 비용 보호.
  • 모델 혼용: Orchestrator는 Claude 3.7, Coder는 DeepSeek V3(저비용/수학 우수), QA는 GPT-4o-mini 등 역할에 맞게 모델 선택.
  • 단일 base_url 게이트웨이를 통해 여러 공급자 잔액 관리를 피함.
  • 대화 히스토리를 요약해서 넘기도록 변경(매 호출마다 전체 대화 덧붙이는 방식 금지).
  • 커스텀 provider SDK 제거 후 라우팅 레이어 재구축.

결과 및 비용 비교: 개선 후 8500만 토큰(85M) 리팩터링을 진행했는데 총 비용 $43.55(블렌디드 약 $0.51/1M 토큰)로 크게 절감.

핵심 권고사항(단순화)

  • 원시 공급자 키를 코드/환경변수에 두지 말고 게이트웨이 키만 사용.
  • 예산/쿼터 제어는 애플리케이션 외부(게이트웨이)에서 강제.
  • 에러 재시도 로직과 루프 감지(무한 재시도 방지) 강화.
  • 대화 길이 관리(요약)로 토큰 사용 최소화.
  • 역할에 맞는 모델 선택으로 비용·성능 균형 맞추기.

1) 당신의 에이전트가 고장난 것이 아닙니다. 당신이 손을 묶어 놓았을 뿐입니다.
2) 당신의 가장 중요한 규칙이 읽히지 않았을 수도 있습니다.
3) API 지출의 80%는 아마 낭비일 것입니다.
4) 모델에 돈을 아끼지 마세요. 시간을 아끼세요.
5) 메모리 시스템은 3주 후에 무너질 것입니다.
6) 아무도 읽지 않는 출력을 생성하는 에이전트는 비용의 블랙홀입니다.
7) 다섯 개의 에이전트가 같은 방을 공유하면 안 됩니다.
8) 당신의 에이전트는 실제로 누가 그것에게 말하고 있는지 모릅니다.
9) 아무도 백업을 상기시켜주지 않았습니다.
10) 아키텍처는 스스로 구축됩니다. 그냥 시작하세요.

설치하면 좋은 Skill 3개:

1) Web Search (brave)

Brave API를 통해서 외부 검색하는 Skill. 단, Brave API 발급이 필요한데 OpenClaw 사용량 증가로 Brave API 유료화 소식이 있었습니다. 무료로도 충분하다고 하는데 무료 버전으로 부족하신 분은 로컬에 SearXNG 설치하는 것도 고려하십시오.

2) daily-brief

cron에 등록되어 하루에 한 번 실행되며 매일 아침 설정한 일정, 날씨, 작업 목록 등의 요약을 받아볼 수 있습니다. API 호출 한 번, 응답 한 번으로 완료되어 토큰 비용이 낮습니다.

3) memory-search

시간이 지날 수록 증가하는 memory 파일에서 “의미 검색(semantic search)”을 제공하여 담당자가 파일 상단에 있기를 바라는 대신 관련 맥락을 정확하게 찾을 수 있도록 도와줍니다.

설치하면 망치는 Skill 3개:

음식 주문 성공 확률이 낮아서 토큰만 소비합니다.

3가지 다른 오케스트레이터 스킬을 테스트해 봤습니다. 모두 관리 계층을 추가하는데, 한 에이전트가 메시지를 읽고 어떤 “워커” 에이전트가 처리해야 할지 결정, 작업 전달, 결과 읽고/요약해서 다시 사용자에게 알려줍니다. 에이전트 한 명이 한 번으로 처리할 수 있는 작업을 네 번의 LLM 호출이 필요하다 보니 토큰 소비가 증가합니다.

에이전트 행동에 성격 지침을 주입합니다. 문제는 이 기능이 SOUL.md의 성격 설정을 전체적으로 덮어쓴다는 것입니다. 간단한 답변을 원할 때조차도 휴머나이저 레이어가 불필요한 말과 표현을 추가합니다. 그리고 그 추가 단어 하나하나에 토큰을 지불해야 합니다.

(필자 의견) 다양한 Skill들이 나오고 있는데 어느 누구도 “보안 검수”를 하지 않는 책임자 없는 체계입니다. Skill 사용으로 알지 못하는 사이에 OpenClaw 사용 기기에 보안 취약점이 발생할 수 있습니다. 예를 들어, Capability Evolver skill 의 경우, 중국 Feishu (China)로 정보를 유출하는 보안 취약점이 있다고 합니다. ( https://github.com/openclaw/clawhub/issues/95 ) Skill 설치/사용하기 전에는 해당 Skill 소스 코드를 살펴 보거나 Reddit에서 보안 관련 사용 후기 등을 찾아서 보안 취약점은 없는지 사전에 점검하기를 권합니다.

[보너스] Cognetivy

Cognetivy는 Claude Code, Cursor, OpenClaw 등과 같은 AI 어시스턴트를 위한 오픈 소스 상태 계층입니다. 워크플로우를 정의하고, 실행 및 이벤트를 추적하며, 구조화된 컬렉션을 로컬의 .cognetivy/ 작업 공간에 저장하는 데 도움을 줍니다. 내부에 LLM은 없으며, 편집기 에이전트가 Skills와 MCP를 통해 사용하는 데이터와 도구만 포함되어 있습니다. Claude Code, Cursor, OpenClaw 및 기타 Skills와 MCP 호환 클라이언트와 함께 작동합니다.

AI 코딩 에이전트는 결과물을 잘 만들어내지만, 그 과정은 보통 검토하기 어렵고 반복하기 어렵습니다. Cognetivy는 에이전트에 운영 계층을 제공하여 다음을 가능하게 합니다:

  • 명확한 워크플로우로 작동 방식을 정의할 수 있습니다.
  • 각 실행과 이벤트에서 무슨 일이 일어났는지 추적할 수 있습니다.
  • 추론 산출물을 구조화된 컬렉션에 체계적으로 보관할 수 있습니다.
  • 지속적인 로컬 작업 공간에서 결과를 다시 실행하고 비교할 수 있습니다.

지난 게시글:

※ 출처: Reddit/Clawdbot, LocalLLM, OpenAI

AD

LEAVE A REPLY

Please enter your comment!
Please enter your name here