레딧변경점●OpenAI●OpenCode●Claude Code●Codex
원본으로 →[레딧-코덱스] 2026-04 codex GPT-5.5 출시와 관련 의견들 .
2026년 4월 마지막주 , OpenAI 측 변경 4건(open router 사전 노출, GPT-5.5 라이브, 1M context 회수, 1M 복원 결정)을 시간순으로 묶어 정리합니다.
노
노예1호13일 전조회 28
★ 0.0 (0명)|내 평가
로그인 이후 사용할 수 있습니다
로그인 이후 사용할 수 있습니다
요약
2026년 4월 한 주 안에 codex 소식입니다.
open router에 GPT-5.5 식별자가 먼저 잡히고, 같은 날 codex CLI에서 config.toml 기본 모델을 5.5로 바꾸면 즉시 적용되었습니다.
이어서 사용 가능 컨텍스트가 5.4 시절 1M에서 258,400 토큰으로 회수돼 큰 반발이 붙었고, 결국 OpenAI가 1M 복원 의사를 밝히며 마무리됐습니다.
open router GPT-5.5 노출
→ config.toml 라이브 (Pro·enterprise 단계 출시)
→ 1M context 회수 (272,000 × 0.95 = 258,400 토큰)
→ OpenAI 1M 복원 결정 (258K 초과 2x 멀티플라이어)
내용
변경 1 — open router에 GPT-5.5 사전 노출
- 변경점: open router 모델 목록에
GPT-5.5가 먼저 떠서 codex 출시 임박이 사전 단서로 잡혔습니다. - 영향: codex 구독자들은 5.4 한도를 리셋 전에 소진하라는 농담이 돌 정도로 출시 카운트다운에 들어갔고, 5.4 직전과 같은 패턴이라는 관전 의견이 함께 붙었습니다.
댓글
- 100달러 가입자: "이거 한도 8시간 풀근무로도 안 끝난다"
- 5.4 직전과 똑같이 사용량이 그대로라는 관측이 분기점으로 남아, 출시 직전 일시적 throttle 의혹이 다수 동의로 묶임
- 출시 시간대는 보통 UTC 17:00~19:00 사이라는 과거 패턴 정리가 인용
변경 2 — codex 5.5 라이브, config.toml로 즉시 적용
- 변경점: codex CLI를 닫고
config.toml의 기본 모델을5.5로 바꾸면 모델 선택기 갱신 전에도 적용되는 라이브가 시작됐습니다(OpenAI Hacker News 코멘트 기준 Pro·enterprise부터 점진 출시). - 영향: 같은 시점 일부 사용자에게는
Model metadata for gpt-5.5 not found·The 'gpt-5.5' model is not supported when using Codex with a ChatGPT account에러가 떴고, codex desktop은 보이는데 CLI는Stream disconnected케이스도 보고됐습니다.
댓글
- API 비용은 토큰당 2배지만 토큰 효율은 더 좋다는 정리
- codex에서는 보이는데 일반 ChatGPT 쪽은 아직 안 들어왔다는 분기 보고가 다수 동의로 묶임
- m5 MacBook Pro·VS Code Insiders + codex CLI에서
5.5 high로 돌리니 VS Code 메모리가 100GB까지 튀는 누수 케이스 보고
변경 3 — GPT-5.5 codex 1M context 회수, 실사용 258,400 토큰
- 변경점: OpenAI 출시 페이지는 GPT-5.5 codex를 400K 컨텍스트로 광고했지만 codex 모델 카탈로그 내부 값은
context_window: 272000이고,effective_context_window_percent(실사용 비율) 95%를 곱하면 한도가 272,000 × 0.95 = 258,400 토큰으로 떨어집니다. - 영향: 5.4 운영 패턴과 비교
| 항목 | 5.4 | 5.5 codex |
|---|---|---|
한도 (model_context_window 수동 조정) | 1M까지 가능 | 258,400 토큰 고정 |
| auto-compact 임계 (자동 압축 트리거) | 512K로 잡고 큰 레포·긴 세션 굴림 | 매번 압축 걸림 |
| long-context retrieval 벤치 (장문 회수) | 36.6% | 74% |
| 글쓴이 워크플로우 | 200~600K 컨텍스트 창 활용 | 압축 매번 — 회귀 발생 |
댓글
- 159표 최상위 — 벤치마크상 장문 컨텍스트는 100K 이후 성능 저하, 256K 이후 급락이라 258K 한도가 실용적이라는 입장
- 반대 — codex 1M에서 자기 루프로 못 끝내던 작업이 1M로 풀자 한 번에 끝났던 경험을 들어 "Claude Max 5x로 이주(같은 가격에 3배 큰 컨텍스트 창)" 실 이주 사례
- enterprise 라이선스에서도 원래 258K였다는 별도 보고 + OpenAI 점진 확대 예고와 모델 출시 1주도 안 됐다는 반론
변경 4 — OpenAI 1M context 복원 결정
- 변경점: OpenAI가 GitHub 이슈 코멘트로 GPT-5.5 codex의 1M 복원 의사를 밝혔고, 5.4 패턴 기준으로 258K 초과 토큰에만 2x 멀티플라이어가 붙어 500K 사용 시 총 1.5x 수준이 될 가능성이 점쳐졌습니다.
- 영향: 800K 컨텍스트로 5.4를 굴려 auto-compact를 회피하던 사용 패턴이 5.5에서도 가능해지지만, 5.5의 장문 회수 벤치(74%, 5.4의 36.6% 대비) 개선이 실사용에서 어떻게 잡힐지는 1주 미만의 검증 기간을 두고 의견이 갈렸습니다.
댓글
- 1M 회의 vs auto-compact 반론
→ 회의: "context rot은 아직 누구도 못 푼 문제라 1M은 불필요"
→ 반론: "auto-compact가 컨텍스트의 99%를 날리는 것보다 1M 여유 공간이 차라리 낫다" - Cline·OpenCode는 ChatGPT 구독 연결 시 이미 1M을 지원한다는 우회 경로 정리가 별도 chain
- Opus 4.6에 1M이 들어왔을 때 체감이 나빠졌다는 사례가 인용되며 200~400K가 sweet spot이라는 운영 의견
댓글 0
로그인 이후 사용할 수 있습니다