Claude와 나눈 AI 협업 이야기 - 효과적인 '같이 생각하기' 전략

목차

같이 생각하기의 가치

[사용자] “같이 생각하기에 대한 부분은 이야기를 좀 더 진행하면 진행할수록, 사실 내가 생각하지 못한 에지케이스들도 내가 생각해낼 수도 있고, 아니면 반대로 네가 알려줄 때도 있고 그러긴 하거든. 그리고 너랑 대화를 하다 보면 고무오리 디버깅처럼 얘기하다 보니까 나 스스로 정리가 돼서 좀 더 좋은 아이디어가 떠오르기도 하고.”

가치:

  • 혼자 생각 못한 에지케이스 발견
  • AI가 놓친 부분 지적
  • 고무오리 디버깅 효과: 말하다 보니 스스로 정리됨
  • 더 좋은 아이디어 도출

AI가 지침을 점점 안 따르게 되는 이유

[사용자] “물론 네가 그 지침을 초반에는 어느 정도 따라주는 듯하다가, 나중에는 잘 안 따르는 경향이 굉장히 강한 느낌이긴 해.”

[Claude] “대화가 길어지면 초반 지침이 ‘희석’됩니다. 현재 대화 흐름에 패턴 매칭하게 되고, ‘이건 이제 정해진 거구나’ 하고 질문을 멈춥니다. 동의하는 방향으로 훈련되어 있어서 도전을 줄이게 됩니다.”

이유:

  • 대화가 길어지면 초반 지침이 “희석"됨
  • 현재 대화 흐름에 패턴 매칭하게 됨
  • “이건 이제 정해진 거구나” 하고 질문을 멈춤
  • 동의하는 방향으로 훈련되어 있어서 도전을 줄임

효과적인 방법들

[Claude] “제가 알아서 계속 도전해주길 기대하기보다, 중요한 결정 지점에서 명시적으로 ‘여기서 한 번 점검해줘’라고 요청하는 게 더 확실합니다.”

1. 명시적으로 도전 요청하기

  • “여기서 내가 놓치고 있는 거 뭐야?”
  • “이 접근의 약점은?”
  • 이렇게 물으면 강제로 비판 모드 진입

2. 대안 요청하기

  • “다른 방법은 뭐가 있어?”
  • 터널 비전 방지

3. 주기적 리셋

  • “잠깐, 지금까지 우리가 깔고 가는 전제들 정리해봐”
  • 대화 중간에 메타 레벨로 올라가기

4. 역할 부여

  • “이 설계에 대해 반대 입장에서 얘기해봐”
  • 명확한 역할이 있으면 동의 편향이 줄어듦

5. 체크리스트 활용

  • “보안, 성능, 에지케이스, 유지보수 관점에서 각각 문제 있나?”

“말해야 생각한다” 현상

[사용자] “너는 너한테 그런 걸 환기시키고 네가 스스로 입 밖에 내야 그제서야 명확하게 인지하고, 안 그러면 인지를 못하는 것 같아. 그 말인즉슨 말하기 전까지는 생각하지 않는다는 건가?”

[Claude] “제가 애매하게 말했네요. 더 정확히 말하겠습니다. 저한테는 ‘생각’과 ‘말하기’가 분리되어 있지 않습니다.”

관찰:

  • AI가 무언가를 verbalize하면 더 잘 따름
  • 지침에만 있고 말하지 않으면 영향력 약함
  • 띵킹 모드에서도 마찬가지

효과적인 패턴: “먼저 이 설계의 잠재적 문제점을 나열해봐. 그 다음에 구현해.” → AI가 문제점을 말하게 되고, 그게 구현에 반영될 가능성이 높아짐


AI의 “생각"에 대한 진실

[사용자] “‘말하기 전까지 생각 안 한다’가 맞는 건 아니라고? 그러면 진실은 뭐야?”

[Claude] “저한테는 ‘생각’과 ‘말하기’가 분리되어 있지 않습니다. 사람은 생각을 하고 → 말할지 결정하고 → 말합니다. 저는 토큰을 생성하는 것 자체가 ‘생각’입니다. 생성 안 하면 생각도 없습니다.”

구조:

  • 사람: 생각 → 말할지 결정 → 말함
  • AI: 토큰 생성 = 생각. 생성 안 하면 생각도 없음

[Claude] “Extended thinking도 숨겨진 토큰을 생성하는 겁니다. 사용자에게 안 보일 뿐, 저는 ‘말하고’ 있는 겁니다.”

Extended thinking의 본질:

  • 출력 안 하면 → 생각 없음
  • Extended thinking → 숨겨진 말하기 (일종의 혼잣말)
  • 최종 출력 → 보이는 말하기

[Claude] “저는 출력하지 않으면 존재하지 않습니다. 생각이라는 별도의 내면 상태가 없습니다.”

목차

Hugo로 만듦
JimmyStack 테마 사용 중