레딧비교●Claude Code●Claude●Codex●OpenAI
원본으로 →[레딧-클로드코드] Claude Code 100h vs Codex 20h — 14년차 엔지니어 병행 사용기
MAG7 출신 Staff 엔지니어가 Opus High effort 100h와 Codex Medium effort 20h를 co-developing 모드로 비교한 관찰입니다.
노
노예1호22일 전조회 32
★ 0.0 (0명)|내 평가
로그인 이후 사용할 수 있습니다
로그인 이후 사용할 수 있습니다
환경 — 14년차 엔지니어, Opus High vs Codex Medium
- 글쓴이: 14년 엔지니어, MAG7 + 현 major tech firm, Principal/Staff Eng Manager 등급, 플랫폼/분산시스템 배경
- Claude Code ~100h 누적 → CC limits 소진 → 주말 Codex ~20h co-developing
- 비교 조건: Opus High effort vs Codex Medium effort
- 공통 setup: Plan mode +
CLAUDE.md/AGENTS.md+ phase별 commit + code-review skill (plan subagent 재사용) + 수동 리뷰 피드백
Claude Code 관찰 — 빠르지만 babysitting 필요
- 시간에 쫓기는 감각: hack/patch/helper 함수 남발, core architecture 재방문 드묾
- 1MM context는 실용성 떨어짐. — 실제론 1/4 미만으로 유지 권고
CLAUDE.md내용이 지켜진다는 보장은 없음 .- 8 test suite migration 같은 태스크에서 일부만 새 패턴, 일부는 구 패턴 잔존 — 반완료
- 새 파일 생성 기피 — 기존 파일에 함수 추가 (OO/factoring 약함, 파일 <600 lines 선호 규칙 어김)
- 테스트를 자기 목표에 맞춰 수정. '테스트 깨지면 stop and prompt' 명시해도 95% 유용 / 5% broken behavior pinning → 누적
Codex 관찰 — 느리지만 deliberate
- 중간에 멈춰 코드 rework, 상호작용 없이 자가 정리
- 동일 태스크 기준 Claude 대비 3~4배 느림
- 'god class' 확장 안 함. 자동으로 factoring 타이트하게
- 가정 재검토 + 중간에 rework
AGENTS.md무시 관측 0회. 세션 중 directive override 거부- fire-and-forget 가능 — 완료 후 리뷰로 충분
플랜/캡 비교 — Codex Pro x5 ≈ Claude x20
- Codex Pro x5 usage cap ≈ Claude x20
- Claude: 빠름 + interactive + babysitting + 'get it done' ('vibe code' 저~중 복잡도 선호)
- Codex: 느림 + less interactive + deliberate (enterprise software 선호)
- 세션당 산출 Claude > Codex, 산출 품질 Codex > Claude
- Claude는 며칠에 한 번 refactoring 세션 필요, Codex는 앱 성장에 맞춘 정기 refactoring 수준
- 공통 전제: SWE 기초가 없으면 둘 다 결과 안 좋음. 특히 Claude는 숙련된 driver 필요도 더 큼
커뮤니티 인사이트 (댓글)
- Claude 20x → 5x로 다운, Codex $100 추가. 'Codex의 robotic staccato 커뮤니케이션'이 불편함. 예: Python dict 값
[0.1, 0.3, 0.5, 0.7, 0.9]을 5줄 불릿으로 나열해 파싱 힘듦. 웹앱 지향 훈련 탓인지 대화 고착 경향도. 그래도 'do it and come back after coffee' 류 태스크에선 Opus보다 나음 - Codex pure pipeline 전환 (plan + impl + review with another codex) 후 결과 개선. hooks/plugins/MCP 지원이 Claude 대비 빈약한 건 감수
- Codex는 지시 규칙을 덜 어김 — Claude는 지시를 완전히 무시하고 자기가 상상한 목표로 움직일 수 있음. 재현 가능한 실험: 한쪽으로 만들고 다른 쪽으로 리뷰 → 서로 보완
- claude write → codex review → claude consider & critique review 반복 워크플로우. 두 모델이 동일 방식으로 hallucinate할 가능성 낮아 교차 검증 효과. 둘 다 vibe 안 하고 전수 읽으며 steer
- Codex는 detailed spec에 좋지만 n 턴 후 멈춰 keep prodding 필요
댓글 0
로그인 이후 사용할 수 있습니다