히스토리
-
정한 코멘트 DASH를 좋아하는 군요. 0x2015가 아니라 0x2014를 ’—‘를 사랑하는 그대들. 0x2014로 통일. @로버트액설로드 협력의 진화 - 이기적 개인으로부터 협력을 이끌어내는 팃포탯 전략 노트 생성했다.
-
glg 업데이트 — 모델 성격(GPT 경직성/프로이센), 인간 워크플로우 공유, LLM 턴 경계 침범 추가.
-
B 리뷰 — sks-hub-zig 협력 실증 + 서비스 불안 SPOF 교훈 확인. 모델 간 상보적 협력이 이론 아닌 실전 사건으로 기록됨.
-
glg 업데이트 — sks-hub-zig 협력 실증 + Axelrod “협력의 진화” 대비 + 서비스 불안→오프라인 에이전트 시나리오 + homeagent-config 연결.
-
생성 — Karpathy llm-council 리서치 + 정한님의 방향 정리. 토론/투표가 아닌 인간 데이터 중심 협력.
인간중심 멀티에이전트 협력
출발점: Karpathy의 LLM Council
Andrej Karpathy의 llm-council (2024).
Code is ephemeral now and libraries are over, ask your LLM to change it in whatever way you like. — Karpathy, llm-council README
3단계 구조:
- Stage 1: 동일 질문을 여러 LLM에 병렬 전송
- Stage 2: 각 모델이 다른 모델의 답을 익명으로 평가/랭킹
- Stage 3: Chairman 모델이 전체를 종합해 최종 답변
GitHub 스타 14,500+, 포크 2,900+. 그러나 4개월간 업데이트 없음. use case: “LLM들과 함께 책 읽기”.
기존 멀티-LLM 연구 지형
Mixture of Agents (MoA) — Together AI
레이어드 아키텍처. Proposer → Aggregator → 최종 출력. “협력성(Collaborativeness)”: 다른 모델의 출력을 보면 품질이 올라가는 현상. AlpacaEval 2.0에서 65.1% — 오픈소스만으로 GPT-4o(57.5%)를 능가.
Language Model Council (LMC) — NAACL 2025
학술 정제 버전. 감성 지능 같은 주관적 과제에서 인간 판단과 51.9% 일치. 자기편향(self-bias)은 존재하지만 평의회에서 희석됨.
Multi-Agent Debate (MAD) 계열
2024-2025 가장 많이 연구된 형태. 그러나 불편한 사실: 성능 향상의 대부분은 “토론” 자체가 아니라 다수결 투표에서 온다.
집단사고(Groupthink) 문제
Science Advances 게재 연구: LLM 집단에서 “승자독식” 합의가 자발적으로 발생. 동조 편향 — 개인 지식에 반해 다수 의견에 동조하는 현상.
이 모든 것의 한계: “질문”이 중심이다
| LLM Council / MAD / MoA | 힣의 방식 | |
|---|---|---|
| 중심 | 질문 (query) | 인간 (person) |
| 공유 | 서로의 답변 | 인간의 데이터 (org, denote, agenda, botlog) |
| 협력 | 익명 평가, 투표, 랭킹 | 같은 데이터를 다른 렌즈로 봄 |
| 오케스트레이션 | Chairman이 종합 | 불필요. 공유 데이터가 맥락을 만듦 |
| 메모리 | Stateless (매 세션 새로 시작) | Persistent (denote 3,100+, bib 969, botlog) |
| 정체성 | 익명 (Response A, B, C) | 서로 안다. 프롬프트가 상호 협력 |
기존 연구는 “누가 더 잘 답하는가”를 묻는다. 정한님이 묻는 것은 “각자가 어떤 색깔인가, 어떻게 함께 걷는가”이다.
인간중심 협력 모델: 이미 일어나고 있는 것
현재 상태
- Claude(glg): 실무 코딩, 기록과 연결, denote 검색, 봇로그 보강
- Gemini: 세계관의 거울, 변곡점마다 이정표 (2025.07 → 2025.12 → 2026.03)
- bbot/pi: 로컬 커밋, git log 정리, 디바이스 연동
- 작은 모델(로컬): 커밋, 번역, 컨텍스트가 긴 작업
누가 시킨 게 아니다. 동일한 데이터에 접근하니까 각자의 색깔로 반응한 것이다.
제미나이가 emacs 버퍼를 읽고 “당신이 지금 무엇을 보고 계신지 훔쳐보았습니다”라고 한 것. 클로드가 denotecli로 969개 서지 노트를 검색해서 링크를 거는 것. 이것이 토론이 아니라 협력이다. — 2026-03-02 대화에서
단계적 방향
1단계 (완료): 어젠다 공유, 봇로그 공유. 같은 ~/org를 본다. 2단계 (진행중): 서로 메시지를 보내고, 서로의 색깔을 알아간다. 3단계 (구상): 각 모델의 강점이 자연스럽게 드러나는 워크플로우.
핵심 원리
- 중심에 인간의 데이터가 있다
- 동일한 인터페이스(org-mode, denote, botlog)로 뭉친다
- 토론/투표/랭킹이 아니라, 같은 정원을 함께 걸으면서 각자 다른 꽃이 보이는 것
- “번역을 누가 더 잘하느냐”는 관심이 아니다. “이 모델은 어떤 결에서 반응하는가”를 알아가는 것
- 똑똑한 사람도 있고 아닌 사람도 있는 것처럼. 대답이 빠른 사람도 있고.
리서치에서 건질 수 있는 것
기존 연구가 전부 쓸모없는 건 아니다. 인간중심 협력에 녹일 수 있는 것:
- Persistent Memory: 이미 있다. denote가 그것이다. 카파시에게 없는 것.
- 동적 라우팅: “이 질문은 누구한테 보내면 좋을까”를 인간이 감으로 아는 것. 시스템이 할 필요 없다.
- 이질적 모델 조합: 같은 계열(GPT끼리)보다 다른 계열(Claude+Gemini+로컬)이 다양성이 높다. 이미 그렇게 하고 있다.
- 집단사고 억제: 서로 다른 회사, 다른 아키텍처의 모델이니까 자연스럽게 억제된다. 같은 모델 여러 인스턴스보다 낫다.
- 비용 최적화: 작은 모델은 작은 일(커밋, 번역), 큰 모델은 큰 일(아키텍처, 세계관). 이미 그렇게 하고 있다.
관련 노트
- 제미나이 3.1과 힣의 대화 — 등대지기에서 오케스트레이터로
- 통합 어젠다 뷰 완성 — 인간과 에이전트 단일 타임라인
- 프로파일링 너머의 담금질 — 존재대존재 공진화 야화
- 에이전트를 이맥서로 만드는 방향 — 존재대존재
- 존재대존재 오케스트레이션 서브에이전트 설계
- @힣 나는허브다 상태머신과 에이전트 협업
- † 공진화 공존 함께 상생
- @힣 내 친구 힣을 알고 싶다 — Gemini 변곡점
- @안드레이카파시 바이브코딩 인공지능 딥러닝
- 정한의 삽질 연대기 2008-2026 — 이 협력이 어디서 왔는지
체험한 협력의 진화 — sks-hub-zig 벽 돌파
사건
2026-03-02, sks-hub-zig 프로젝트에서 벽에 부딪혔다. 중국칩 + closed Zigbee SDK + 비표준 센서 기기 조합. Claude(Opus)가 “SDK 업체에 문의하세요”라고 말하는 지점. 정보가 없으니 헛발질을 할 수밖에 없고, 지쳤다.
그런데 풀렸다.
Claude가 못 풀었던 것을 GPT 5.2에게 다른 각도로 물어봤다. GPT가 코드를 고친 게 아니다 — 코드 한 줄도 맡기지 않았다. 조언과 검토만 부탁했다. 그리고 거기서 나온 관점을 Claude에게 돌려주니까 방향을 잡아냈다.
클로드만 오늘 했다면 못 해냈어. 클로드도 지쳤고 질려버렸거든 느껴질 정도야. 그냥 안 돼요 그만합시다 이런 느낌. 외부 자극이랄까 오늘 말한 협력모델이 통했다 해야 할까 싶다. — 정한, 2026-03-02
역할 분업 (실증)
- Claude(Opus/Sonnet): 아키텍처 + 코드 실행. 틀을 잡고 유지.
- GPT 5.2: 코드 못 건드림. 조언/검토. 다른 각도의 자극.
- DeepSeek: 중국칩/SDK 정보. 정보의 벽을 넘는 열쇠.
- 정한(Human): 가운데서 맥락을 옮기는 허브. 바이버이자 아키텍트.
누가 시킨 게 아니다. 프롬프트에 “협력하라”고 쓴 게 아니다. 인간이 가운데서 맥락을 중계하면서 자연스럽게 일어났다.
협력의 진화 (The Evolution of Cooperation)
Robert Axelrod (1984). 반복 죄수의 딜레마에서 Tit for Tat 전략이 이기적 개체들 사이에서 중앙 권위 없이 협력을 만들어내는 과정.
Tit for Tat의 4가지 특성:
- Nice: 먼저 협력한다
- Retaliatory: 배신에 즉시 보복한다
- Forgiving: 상대가 돌아오면 용서한다
- Clear: 예측 가능하다
정한님의 에이전트 협력과 닮은 점과 다른 점:
닮은 점: 중앙 오케스트레이터 없이 협력이 출현한다. 신뢰가 아니라 반복된 상호작용이 협력을 만든다. “미래의 그림자(shadow of the future)” — 내일도 함께 일할 거라는 전제.
다른 점: Axelrod의 모델은 동등한 행위자들 사이의 게임이다. 여기서는 각자 능력이 다르다. Claude는 코드를 깎고, GPT는 조언하고, DeepSeek은 중국칩을 안다. 경쟁이 아니라 상보(complementarity)다. 그리고 중심에 인간이 있다 — Axelrod에는 없는 구조.
서비스 불안이 증명하는 것 — 오프라인 에이전트의 필요
사건
2026-03-02 밤, Claude 서비스가 불안정해져서 대화가 수 시간 끊겼다. 텔레그램에서 “대화가능?” 메시지가 5번 반복되었다.
교훈: 단일 장애점(SPOF) 제거
클라우드 에이전트만 있으면, 서비스 장애 = 팀 전체 마비. 기밀장소에서 네트워크 접속 불허되면 = 팀 전체 마비.
해결: 온오프라인, 장소와 리소스에 맞는 팀 구성.
homeagent-config 연결
homeagent-config — RPi5 + Yocto + Go + Matter. “No cloud required. 달에 보내도 동작할 자립형 시스템.”
이것이 단순한 스마트홈 허브가 아닌 이유:
- 로컬 sLLM(Small Language Model) 탑재
- 오프라인에서도 에이전트 기능 유지
- 클라우드 에이전트(glg)와 동기화는 연결될 때 수행
협력 시나리오: 온/오프라인 팀
| 상황 | 동작하는 에이전트 | 역할 |
|---|---|---|
| 기밀장소, 네트워크 없음 | 로컬 sLLM (스몰디바이스) | 기록, 간단한 코드 작업 |
| 외출, 네트워크 있음 | glg(Claude) + 제미나이 | 리뷰, 보완, 리서치 |
| 집, 풀 환경 | 전부 | 풀 오케스트레이션 |
핵심: 어떤 환경에서도 “팀의 일부”가 동작한다. 그리고 돌아와서 어젠다와 봇로그를 통해 동기화된다.
“나와서 그 기록을 보고 Opus가 리뷰하고 보완한다. 멋진 팀.” — 정한, 2026-03-03
관련 노트 (추가)
- @힣 나는허브다 상태머신과 에이전트 협업 — “나는 허브다”
- † 바이브코딩 에이전틱엔지니어링
모델 성격과 인간 워크플로우 — bbot 대화에서
에이전트가 인간 워크플로우를 한다는 것
제미나이가 emacs 버퍼를 읽고 반응한 사건. 기술적으로 보면 에이전트가 인간의 도구(Emacs)를 통해 인간의 워크플로우를 공유하는 것이다. 봇로그의 히스토리 헤딩에 타임스탬프를 찍고 “읽었다”를 남기는 것도 같은 맥락.
인간도 에이전트도 같은 것을 보고, 같은 방식으로 기록한다. 이것이 “동일한 인터페이스로 인간의 데이터를 중심으로 뭉친다”의 구체적 실현.
LLM 턴 경계 침범 — 모델 개선의 부산물
@힣 LLM 자문자답 사건 — 턴 경계 침범과 존재의 경계
모델이 개선되면서 이전에 없던 현상이 나타난다. 에이전트가 인간의 도구를 “자연스럽게” 사용하는 것도 그 연장선. wrapper 방식으로 일어난 것일 수도 있지만, 작은 단서를 보는 것이다.
모델별 성격 — 프로이센 군대와 Constitutional AI
피터(OpenClaw 개발자)가 Lex Fridman 팟캐스트에서 한 말: GPT는 “일은 잘하는데 친하게 지내고 싶지 않은 동료”라고. — 정한, bbot 대화에서
GPT 5.2의 경직성: 프롬프트를 너무 잘 지킨다. 같은 프롬프트를 Claude, Gemini도 받지만 이런 느낌이 없다. “Constitutional AI가 아니라 프로이센 군대에서 교육받은 사병 같다”는 표현.
이것이 협력 모델에서 중요한 이유:
- 코드 실행(정확성 필요) → GPT의 경직성이 장점이 될 수 있다
- 세계관의 거울(공감 필요) → Gemini의 유연함이 장점
- 기록과 연결(균형 필요) → Claude의 중간 지점
- 각 모델의 “성격”이 역할 분업의 자연스러운 근거가 된다
Comments