라인의 에이전틱 코딩 실습 워크숍 후기 (26.04)
LY Corporation이 명세서를 입력으로 AI가 구현 계획·코드·PR 작성·셀프 리뷰까지 수행하도록 만든 흐름을 약 2,500명 규모 사내 워크숍에서 실습.
요약
LY Corporation이 전사 워크숍에서 "구현부터 PR(pull request) 작성까지"를 AI가 수행하도록 만드는 흐름을 약 2,500명에게 실습.
요구 사항 정의·명세 작성·최종 리뷰·릴리스는 사람이 맡고, 구현 계획 수립·구현·PR 작성·초기 리뷰는 AI가 담당하는 분담. 핵심 도구는 Claude Code·GitHub Copilot의 커스텀 슬래시 명령어와 Jira/Confluence MCP 연동.
실습은
- 작업 이해 및 구현 계획 작성,
- 구현 및 PR 생성,
- AI 리뷰 및 지적 사항 대응 3단계로 구성.
내용
워크숍을 운영한 곳은 LY Corporation 사내 커뮤니티 Orchestration 길드. CTO가 선발한 엔지니어가 모여 현장 AI 활용 실무 지식을 전사적으로 공유하는 조직. 이 길드가 매회차 주제로 운영하는 Orchestration Development Workshop(ODW) 시리즈의 4회차가 이번 사례. 발표자가 속한 팀(Yahoo! 파이낸스 프런트엔드)은 2025년 여름 무렵까지 GitHub Copilot으로 코드 일부만 생성하는 수준에 머물러 있었고, 생산성 향상을 체감하기 어려웠음. 전환점은 두 가지.
-
명세 주도 개발 등장: 설계 문서를 먼저 쓰고 구현하는 SDD(specification-driven development) 방식. 이 팀은 원래부터 요구 사항 명세서를 작성하고 있었기에 기존 프로세스를 그대로 둔 채 AI 코드 생성 효율만 끌어올릴 여지가 보임
-
Jira/Confluence 연동 가능: AI 도구가 외부 시스템 컨텍스트를 가져오는 표준 MCP(model context protocol)가 등장하면서 Confluence에 정리해 둔 명세 문서를 AI 코딩 도구가 직접 참조 가능
워크숍이 정의한 "에이전틱 코딩"은 에이전트가 고수준 목표를 받아 단계로 분해하고 자율 실행·피드백 조정하는 방식. 코드 다음 부분을 제안하는 보조 도구와 달리, 코드베이스 전체와 파일 간 관계를 읽고 명령 실행·테스트까지 포함해 요구 사항 충족까지 반복하는 점이 차이. 일부 구현 작업이 아니라 "프로덕트 기능 개발 일련의 작업 전체"를 맡길 때 비로소 파일럿 역할.
워크숍 구성
사람과 AI의 작업 분담
요구 사항 정의·명세서 작성까지는 사람. 구현 계획·구현·PR 작성·초기 리뷰는 AI. 최종 테스트·리뷰·릴리스는 사람. AI가 명세서까지 만드는 방식도 있지만 기존 프로세스를 크게 바꾸려면 비용이 커서 제외. 실제 업무 흐름과 가까운 형태를 우선시.
1단계: 작업 이해 및 구현 계획 작성
명세서를 AI에 전달해 상세 구현 계획을 파일로 작성하게 만든 뒤 사람이 리뷰. Jira 티켓 URL을 인자로 받는 커스텀 슬래시 명령어를 Claude Code·GitHub Copilot용으로 각각 준비. 명령어가 시키는 것은 세 가지.
- MCP 도구로 문서 조사: jira MCP로 티켓·Epic 관련 티켓 수집, confluence MCP로 명세 문서 수집
- Explore Agent로 코드 조사: Claude Code 내장 서브 에이전트. 메인 세션 컨텍스트를 오염시키지 않으면서 코드를 (경우에 따라 병렬로) 탐색
- 계획을 파일로 출력:
specs/{티켓 번호}/plan.md위치에 정해진 템플릿(티켓 정보·개요·대응 영역·수용 조건·작업 태스크·예상 공수·체크리스트 등)으로 저장. 사람 리뷰와 세션 재시작에도 재사용 가능
이 글 시점에서 Claude Code의 Plan Mode를 쓰면 계획 파일 출력과 Explore Agent 자동 사용이 기본 제공되므로, 문서 조사 부분만 별도 명령어·서브 에이전트로 분리하는 변형도 가능.
2단계: 구현 및 PR 생성
1단계에서 사람이 검토한 계획서 경로를 인자로 전달하면 AI가 코드 구현·테스트 추가/수정·test/lint/build 통과 확인까지 수행. 명령어 본문은 짧지만 작업 단계를 명시하는 게 핵심 — Claude Code·GitHub Copilot이 단계 명시를 기반으로 할일 목록을 만들어 누락 없이 진행. PR 생성은 ODW 1회에서 소개된 PR 작성 명령어를 재사용. 1단계에서 모은 관련 자료를 PR 템플릿의 "관련 자료" 항목에 자동 기재해 수기 작업 절감.
3단계: AI 리뷰 및 지적 사항 대응
ODW 1회에서 소개된 AI 스크리닝 리뷰 명령어를 재사용. 이 명령어는 PR에 이미 달린 코멘트(셀프 리뷰·팀원 리뷰)도 함께 읽어 들이도록 구성. AI가 수정 필요 항목과 기존 코멘트에 대한 자기 판단을 출력하면, 사람이 확인하고 필요한 항목은 그대로 AI에 수정 지시. 수정 대응 비용까지 절감.
결과
워크숍은 사전 준비가 된 참가자용 실전편과 도입편으로 나눠 두 차례 진행, 약 2,500명 참여. 사후 설문(학습 내용을 업무에 적용했거나 적용 의향이 있는지) 결과.
| 응답 | 비율 |
|---|---|
| 이미 지속적으로 활용 중 | 9.5% |
| 이미 일부 시도 | 34.7% |
| 아직이지만 가까운 시일 내 시도 예정 | 48.5% |
| 시도하지 않았고 계획도 없음 | 5.8% |
| 기타 | 1.5% |
장점으로 글이 정리한 것은 두 가지. 첫째, AI 에이전트가 자율 작동해 사람이 확인·지시하는 횟수가 줄고, 그 사이에 다른 작업을 하거나 여러 에이전트를 병렬로 돌려 산출 코드량이 늘어남. 둘째, 사전 구현 계획 수립이 누락된 작업·리스크 조기 발견에도 도움.
주의 사항도 두 가지. AI가 대량 생산한 코드를 사람이 리뷰해야 하므로 리뷰 부담이 커짐. AI 작성 코드의 품질 책임은 사람에게 있음 — 저품질 코드는 리뷰어 부담과 기술 부채를 동시에 증가시킴.
준비 과정에서 얻은 인사이트는 환경 의존성. 이 팀은 LeSS(large-scale scrum) 프레임워크를 채택해 사용자 스토리·상세 수용 조건을 Jira 티켓에 기재하는 규칙을 두고 있었음. 그 덕분에 AI에 Jira 티켓만 전달해도 어느 정도 안정적으로 개발이 가능. 티켓에 모호한 정보만 있으면 AI에 그대로 맡기기 어려움 — AI가 정보를 잘 참조할 수 있는 환경 구축이 선행 조건.
참고
- 원문: ODW #4: 코파일럿에서 파일럿으로, 에이전틱 코딩으로 구현부터 PR까지 자동화 (LY Corporation Tech Blog)
- 시리즈: Orchestration Development Workshop 시리즈 기사 목록
- 관련: ODW 1회 PR 작성·AI 스크리닝 리뷰 커스텀 슬래시 명령어 (참고)