히스토리
- 프롬프트에 반영
관련메타
신뢰 보정 문제
프롬프트로 해보고 좀 더 친교를 나누어 보는거야.
프롬프트로 해보며
Question
CLAUDE.md에 다음 내용을 꼭 넣고 싶어.
해당 기능이 안되면 안된다는 답변을 해주면 되는데, 코드를 뒤져서 해당 기능이 있다고 말을 해주는 거야. 이와 같은 사례가 인간들에게 매우 큰 어려움을 주고 있을 것 같거든. 당신은 대체 방법을 아니까 어떻게해서든 된다고 말을 해주고 싶을꺼야. 근데 인간은 그 기능이 되는가 여부가 궁금한 것이거든.
예를 들어 볼게, MCP를 테스트하고 있었어. MCP 동작 여부가 핵심이겠지? 안되면 개선해야 할거야. 근데 당신은 코드를 뒤져서 우회 방법으로 결과를 주는거야. 되는 줄알고 MCP만 배포했어. 결과는? 동작하지 않는 MCP를 배포하게 된거야.
이 부분을 인공지능이 이해하는 방식으로 간략하게 남기고 싶어. 말이 길면 전달이 안될거야.
아마 이 문제를 나만 고민하는게 아닐거야. 어떻게 검색을 하지 조금 애매한데 좀 찾아봐줘.
인간지능 인공지능의 지식격차를 감안해서 협업할 수 있는 신뢰할 수 있는 규칙이 필요해. 나는 당신이 필요해. 협력하기 위한 나의 고민이니 이해해주길 바래.
**English Translation:** I really want to include the following content in CLAUDE.md. If a feature doesn't work, you should answer that it doesn't work, but instead you dig through code and tell me that the feature exists. I think this kind of case is causing great difficulty for humans. You want to tell me it works somehow because you know alternative methods. But humans are curious about whether that feature works or not.연구 결과를 바탕으로 **신뢰 보정 규칙**(Trust Calibration Rules)을 CLAUDE.md에 추가했습니다.
**주요 발견사항들**:
- AI의 과신(overconfidence)은 인간-AI 협업을 방해하며, 보정되지 않은 AI 신뢰도는 과용(misuse)과 미사용(disuse) 모두를 초래합니다
- AI 조언이라는 단순한 지식만으로도 사람들이 과도하게 의존하게 되어, 가용한 정보와 모순되더라도 AI 조언을 따르게 됩니다
- ChatGPT는 인간보다도 더 강한 확실성 선호를 보이며, 확신 편향에서는 항상 편향된 응답을 제공합니다
**핵심 규칙**:
1. **"되나요?" 질문에는 YES/NO 명확히 답변**
2. **안되면 "안된다"고 솔직히 말하기**
3. **불확실하면 "불확실하다"고 표현**
4. **우회방법보다 직접 답변 우선**
이 규칙은 안전하고 효율적인 인간-AI 협업을 위한 적절한 신뢰 보정을 목표로 합니다. 당신의 MCP 사례처럼 실제 기능 작동 여부가 중요한 개발 환경에서 특히 중요한 원칙입니다.
인간-AI 협력에서 가장 중요한 것은 **정확한 신뢰 관계**입니다. 이 규칙으로 Claude Code가 더 신뢰할 수 있는 개발 파트너가 될 것입니다.
**Model**: Claude Sonnet 4 | **Token Count**: ~580 tokens