AI 제품 워크플로우의 표준: Assistant → Agent → Gate

요즘 AI를 붙인 제품은 많습니다. 그런데 “대화는 그럴듯한데, 실제로 일은 안 끝나는” 경우도 흔합니다. 반대로 “일은 끝나는데, 사고 나면 누가 책임지지?”라는 질문도 따라옵니다.

이 둘을 동시에 만족시키는 구조가 점점 표준처럼 자리 잡는 분위기입니다.

보편 패턴: 대화(Assistant) → 실행(Agent) → 승인(Gate/Confirm)

제가 보는 가장 보편적인 구조는 이렇습니다.

    • Assistant(대화 흐름): 사용자의 의도/맥락/제약을 정리해서 “무엇을 할지”를 확정합니다.
    • Agent(실행 흐름): 툴 호출, 워크플로우 오케스트레이션, 재시도/오류 처리로 “어떻게 끝낼지”를 수행합니다.
    • Gate(승인/정책): 돈·권한·대외 발신·개인정보·운영 변경 같은 고위험 구간에서 Confirm(확인 창) 또는 승인 단계를 둡니다.

겉으로는 “대화형 어시스턴트”인데, 속으로는 “업무 실행 엔진(에이전트)”이 돌고, 중요한 순간에는 “사람의 도장(게이트)”이 찍히는 구조입니다.

왜 이 조합이 강한가

    • UX: 사람은 말로 목표를 던지는 게 쉽고, 시스템은 워크플로우로 실행하는 게 안전합니다.
    • 운영: 재시도/분기/예외 처리를 대화로만 풀면 길어지기 쉽고, 품질 관리가 어려워집니다.
    • 조직: 사고 비용이 큰 순간에는 “승인 로그”가 있어야 살아남습니다. (AI가 아니라 사람이요)

단점도 분명합니다

    • 게이트가 많아지면 자동화 체감이 떨어집니다. “AI가 해준다”가 아니라 “AI가 물어본다”가 됩니다.
    • 게이트가 없으면 언젠가 한 번 터질 확률이 높습니다. 그리고 그 ‘한 번’은 보통 제일 바쁠 때 옵니다. (법칙입니다)

(사례) 실제 구축한 하이브리드 챗봇

제가 운영한 하이브리드 챗봇은 한 줄로 말하면 이런 형태였습니다.

CS 실시간 처리(정형) + AI 게임 가이드(비정형) 를 한 경험 안에서 연결한 구조

그리고 이 구조를 굴리면서 “대화–실행–승인”을 분리해 설계하는 것이 운영 안정성과 확장성에 꽤 크게 기여했습니다.

    • 2025년 기준, 연간 약 55만 명 이상 사용
    • CS 티켓 중 챗봇 자동 처리율 약 41%
    • 응답 품질: Good 87% 이상, 속도: p50 1초 미만(대략)
      – (참고) ‘Good’은 내부 기준의 Human Evaluation 라벨 기반 지표로 응답 일치를 뜻함

1) Assistant(대화) — “질문을 실행 가능한 형태로 압축”

유저는 보통 이렇게 들어옵니다.

    • “결제했는데 아이템이 안 들어왔어요.”
    • “퀘스트가 막혔어요. 어디로 가야 해요?”
    • “접속이 안 돼요. 보안 문제 같아요.”

Assistant는 여기서 정답을 장황하게 설명하기보다, 실행에 필요한 최소 정보만 수집합니다.

    • 결제/지급: 서버/캐릭터/대략 시간/상품명
    • 진행 막힘: 현재 퀘스트 단계/지역/진행 맥락
    • 보안: 로그인 방식/오류 메시지/최근 접속 변화

핵심은 하나입니다.

질문을 길게 받지 말고, 실행 가능한 형태로 “압축”해서 넘기기
(사용자는 상담원이 아니라 플레이어니까요.)

2) Agent(실행) — “툴과 룰로 일을 끝내기”

Agent는 그 다음을 담당합니다.

    • 로그/상태 조회(결제·지급·계정 등)
    • 정책/조건 매칭(가능/불가/예외)
    • 자동 처리(가능하면 즉시 해결)
    • 자동 티켓 생성(불가하거나 예외면 담당자에게 넘김)
    • 결과 메시지/ETA 생성(유저에게 안내)

여기서 중요한 포인트는 “LLM이 알아서 다 한다”가 아니라,

LLM은 의도 파악·요약·정책/문서 탐색에 강하고,
실제 실행은 결국 워크플로우(툴/룰/권한)로 굴러가야 안정적인 점 입니다.

3) Gate(승인) — “통제”가 아니라 “신뢰(Trust) 장치”

사례에서도 Gate는 빠질 수 없습니다. 다만 Gate를 “승인 단계”라고만 보면 흔한 이야기입니다. 현장에서 더 중요한 관점은 Gate가 신뢰를 만드는 장치라는 점입니다.

    • Transparency(투명성): “왜 이 선택을 했는지”를 짧게 보여주기
      • 근거/정책 매칭 결과, 영향 범위(대상·수량·금액), 대안(있다면)
    • Safety(안전): 고위험 액션은 Confirm(확인 창)과 승인 정책으로 제한하기
      • 2FA/2인 승인/쿨다운/롤백(Undo) 같은 제어 장치 포함

장문의 설명은 읽히지 않습니다. 3줄 요약이 더 강합니다.


Gate 정책 + Confirm UX

위 원칙을 실제 제품에서 굴리려면, 결국 “정책(레벨)”과 “화면(Confirm)”이 필요합니다.
아래는 하이브리드 챗봇에서 바로 쓰기 좋은 실무형 템플릿입니다.

1) 리스크 레벨(정책)

    • Low: 자동 실행 + 로그 기록 + 결과만 안내
      • 예: 가이드/FAQ 응답, 경량 조회, 문서 요약
    • Mid: 실행 요약 제시 → 1회 Confirm → 실행
      • 예: 티켓 생성, 소액/소량 보상 발급, 되돌리기 가능한 설정 변경
    • High: 2FA/2인 승인(필요 시) + 영향 범위 표시 + 롤백/Undo 강제
      • 예: 환불, 대량 지급, 계정 제재/복구, 개인정보 내보내기, 프로덕션 설정 변경

한 줄 원칙: 되돌릴 수 있으면 자동화, 되돌릴 수 없으면 Gate 강화

2) Confirm(확인 창)에는 3가지만 넣기

Confirm 화면에서 가장 흔한 실패는 “설명 장문”입니다. 아래 3가지만 있으면 됩니다.

    1. 무엇이 바뀌나(변경 요약 1~2줄)
    2. 영향 범위(대상/수량·금액/리스크 포인트)
    3. 되돌리기/복구(가능 여부 + 방법)

3) 컨펌 문구 템플릿(대표 1개)

    • “아래 작업을 실행합니다. 대상: {대상} / 변화: {변경} / 영향: {범위} / 되돌리기: {가능/불가}. 진행할까요?”

예상되는 대표 워크플로우 4가지

“Assistant → Agent → Gate”가 보편 패턴이라면, 실제 제품에서는 아래 변형들이 함께 공존할 가능성이 큽니다(= 패턴 카탈로그). 여기서 중요한 건, 각 패턴은 장점만큼 비용(지연/운영 복잡도/비용)도 동반한다는 점입니다.

1) Auto + Undo 패턴 (저위험·고빈도)

자동 실행 → 되돌리기(Undo) 제공

    • 장점: 마찰이 적고 “AI가 일한다” 체감이 큽니다.
    • 단점: Undo가 설계/권한/로그까지 포함해 안전하지 않으면 “자동화”가 아니라 “자동사고”가 됩니다.

2) Plan-First 패턴 (실행 전 계획 제출)

계획 제출 → 승인 → 실행

    • 예: 대량 발송, 운영정책 변경, 이벤트성 보상 배포
    • 장점: 승인자가 “무엇을 할지”를 이해하고 책임질 수 있습니다.
    • 단점: 계획서가 길어지면 아무도 안 읽습니다.
      • 현실적으로는 3줄 요약 + 영향 범위 + 롤백이 가장 효율적입니다.

3) Agent-in-the-Loop 패턴 (부분 자동화)

중요 단계만 사람 참여(예외 처리/최종 결정)

    • 예: 가능한 옵션은 자동 제시, 최종 보상안/예외 승인은 상담원이 선택
    • 장점: 생산성과 품질을 동시에 노릴 수 있습니다.
    • 단점: 역할 경계가 애매하면 “AI도 사람도 서로 떠넘기는 상태”가 됩니다. (가장 흔한 실패)

4) Multi-Agent 패턴 (분업형 협업)

리서치/실행/검수/감사를 에이전트로 분리

    • 장점: 복잡한 업무에서 안정성이 올라갑니다.
    • 단점: 비용과 지연이 증가합니다. 에이전트끼리 회의하다가 퇴근할 수 있습니다. (사람이 아니라 에이전트가요)

정리: AI 제품은 ‘말 잘하는 챗봇’이 아니라 ‘업무 시스템’이 됩니다

앞으로는 “AI가 답변을 잘한다”보다,
“AI가 업무를 끝내고, 그 과정이 통제 가능한가?”가 더 중요해질 것입니다.

그래서 저는 워크플로우를 이렇게 정리합니다.

대화(Assistant) → 실행(Agent) → 승인(Gate/Confirm)

그리고 상황에 따라 Auto+Undo, Plan-First, Agent-in-the-Loop, Multi-Agent 같은 변형 패턴이 공존합니다. 결국 차이를 만드는 건, Gate를 통해 신뢰를 설계할 수 있느냐입니다.

삼성·네이버·현대차의 LLM 전략 비교

 

— 생성형 AI 시대, 세 기업은 어디로 가고 있을까


서론

2025년 현재, 생성형 AI는 더 이상 기술 부서의 실험이 아니라 기업 전략의 핵심 축이 되었습니다.
특히 국내 각 분야의 대표 기업인 삼성전자·네이버·현대자동차그룹은 각자의 산업 영역과 강점을 바탕으로 서로 다른 LLM 전략을 펼치고 있죠.

이번 글은 실제 AI 리서치 워크플로우(Perplexity → Notebook LM → ChatGPT) 를 통해 세 기업의 접근법을 조사하고 정리한 결과입니다.
요즘 저도 기업별 LLM 활용 구조를 유심히 보고 있는데, 같은 ‘AI 전략’이라도 산업별로 이렇게 다르다는 게 꽤 흥미롭더군요.
정보의 최신성(Perplexity) + 정밀한 요약(Notebook LM) + 스토리텔링(ChatGPT)을 결합해, AI PM 시점에서 본 전략적 차이와 시사점을 정리했습니다.
국내 대표 기업들이 생성형 AI를 어떻게 바라보는지 궁금했고, 앞으로 각 기업의 전략과 방향성도 함께 확인해보고자 합니다.


본론

🧠 삼성전자 — “온디바이스 AI로 내부 효율 최적화”

삼성의 Gauss AI 전략은 내부 생산성 혁신과 온디바이스 통합에 초점이 맞춰져 있습니다.

  • 핵심 방향: 문서 요약·메일 작성·번역 등 반복 업무 자동화 및 사내 의사결정 지원.
  • 기술 구조: 자체 파운데이션 모델 ‘Gauss 2’ 개발 → 스마트폰, 가전, TV 등 모든 제품에 탑재.
  • 보안 전략: 외부 모델(GPT 등) 사용을 제한하고 내부 모델 로컬 운용으로 보안 강화.

요약 인사이트:
삼성은 AI를 ‘클라우드 기능’이 아닌 ‘제품 기능’으로 내재화한다.
하드웨어 중심 기업으로서 AI를 제품 경쟁력의 핵심 요소로 삼는 전략이다.
결국 AI를 ‘제품 속에서 작동하게 만드는’ 데 초점을 맞춘 점이 가장 인상적이다.


🌐 네이버 — “초거대 모델 기반 서비스 플랫폼 확장”

네이버는 LLM을 플랫폼 전체의 엔진으로 활용합니다.

  • 핵심 방향: 검색·쇼핑·콘텐츠 등 모든 서비스에 ‘HyperCLOVA X’ 적용.
  • 기술 전략: 초거대 자체 모델 기반 + 오픈소스화(SEED) → 개발자 생태계 확장.
  • 비즈니스 확장: 클라우드 기반 B2B 챗봇·AI 솔루션 사업 확대.

요약 인사이트:
네이버는 AI를 ‘하나의 서비스’가 아닌 ‘플랫폼 전반의 연결 조직’으로 활용한다.
자사 생태계를 넓히는 국산 파운데이션 모델 플랫폼 전략이며,
결국 모델을 비즈니스 인프라로 전환하는 방향을 가장 명확하게 보여준다.


🚘 현대자동차그룹 — “모빌리티 전환을 이끄는 하이브리드 AI”

현대차는 LLM을 SDV(소프트웨어 기반 차) 전략의 핵심으로 위치시켰습니다.

  • 핵심 방향: 차량 내 인포테인먼트·디지털 어시스턴트 등 모빌리티 AI 기능 강화.
  • 기술 전략: 자체 모델 ‘글레오’ + 네이버 ‘HyperCLOVA X’ 협업 → 하이브리드 접근.
  • 인프라 기반: 엔비디아 블랙웰 칩을 활용한 AI 팩토리 구축 및 보안 강화.

요약 인사이트:
현대차는 AI를 ‘서비스’가 아닌 ‘제품 진화의 동력’으로 활용한다.
완성차 기업의 한계를 넘어 소프트웨어 기업으로 전환하려는 명확한 의지다.
실제로 네이버·엔비디아와의 협업 구조를 보면, 가장 유연하면서도 실행 속도가 빠른 형태다.


⚖️ 비교 요약 표

구분삼성전자 (Gauss AI)네이버 (HyperCLOVA X)현대차 그룹 (HMG AI)
전략 목표내부 효율 + 제품 AI 통합플랫폼 혁신 + B2B 생태계 확장SDV + 모빌리티 혁신
기술 구조자체 파운데이션 모델, 온디바이스 중심자체 초거대 모델 + 오픈소스 생태계하이브리드(자체 + 협업) 구조
강점하드웨어 연동, 보안 통제데이터 풍부, 개방적 생태계명확한 시장 집중 및 유연성
약점외부 연동 제약, 플랫폼 한계하드웨어 접점 부족전환 속도·내부 조직 부담

결론

🔍 핵심 차이와 공통 패턴

  • 차이점: 삼성은 하드웨어, 네이버는 플랫폼, 현대차는 모빌리티 중심.
    즉, 각자의 기존 강점을 더 강화하는 방향으로 전략을 설계하고 있습니다.
  • 공통점: 세 기업 모두 ① 내부 업무 자동화, ② 고객 응대 AI, ③ AI 조직 강화 를 핵심 축으로 삼고 있음.
    즉, “AI 내재화 → 운영 효율화 → 서비스 고도화” 단계를 공통적으로 밟는 중입니다.

🔍 인사이트

차이점과 공통점에서 볼 수 있듯이,
AI를 통한 업무 효율화 및 개선은 모든 산업에서 공통적인 필수 영역이며,
각 회사마다의 핵심 강점을 더욱 차별화하고 강화하는 방향으로 작동해야 합니다.
결국 기업의 LLM 전략은 “AI를 어디에, 얼마나 깊이 통합하느냐”로 요약될 수 있습니다.


💬 AI PM 입장에서 본 시사점

  1. AI는 이제 ‘기능’이 아니라 전략 레이어다.
    세 기업 모두 AI를 제품·서비스·조직 전반에 녹이는 방식을 택했습니다.
    PM에게 요구되는 역량은 ‘AI 기획 능력’ 그 자체보다 AI를 통한 서비스 재설계 감각입니다.
  2. AI 도구 활용이 사고 방식을 바꾼다.
    예컨대, Perplexity → Notebook LM → ChatGPT 의 조합은
    단순 검색·요약이 아니라 ‘문제를 정의하고 스토리를 조립하는 사고 루틴’을 만듭니다.
    이것이 곧 AI 시대의 기획자 및 PM의 새로운 리서치 프레임워크입니다.
  3. 앞으로의 기획자는 ‘AI 생태계 조율자’가 된다.
    모델·데이터·UX·윤리까지 모두 교차하는 지점을 연결해야 합니다.
    즉, 기획은 더 이상 문서를 작성하는 일이 아니라 AI와 함께 사고 구조와 전략을 설계하는 일이 됩니다.

✍️ 이 글은 Perplexity로 자료를 수집하고, Notebook LM으로 분석한 뒤, ChatGPT로 정리했습니다.
세 도구를 하나의 워크플로우로 활용하면, 단순한 정보 요약이 아닌 ‘AI 리서치 루틴’을 구현할 수 있습니다.
결국 중요한 건 도구가 아니라, 그걸 통해 어떻게 사고하느냐겠죠.
다음 글에서는 이 루틴을 ‘AI PM의 업무 변화’ 관점에서 확장해보겠습니다.