AI 챗봇 기획, 폴백·쿠션멘트 제대로 설계하는 법

1. 서문

챗봇 기획에서 폴백(Fallback)쿠션멘트(Cushion Message) 는 단순한 보조 장치가 아닙니다.
서비스가 복잡해질수록 이 두 장치는 사용자 경험을 지키는 안전망이 됩니다.
저는 CS 챗봇 시절부터 AI 챗봇까지 이어지는 과정에서 이 두 요소를 어떻게 설계·운영했는지를 경험했고, 그 과정에서 얻은 시행착오와 교훈을 공유하고자 합니다.


2. 타임라인: Rule 기반 → AI 기반

CS 챗봇 (Rule-Based)

  • 매칭 실패 → 폴백 동작 or 무조건 상담사 연결
  • 폴백과 쿠션멘트의 구분이 명확했음

AI 챗봇 (LLM + RAG 도입)

  • 단순 실패가 아니라, 다양한 케이스가 발생
    • 검색은 됐는데 결과 신뢰도가 낮음
    • 답변 후보가 너무 많음
    • 외부 도메인 질문이 들어옴 등
  • 결국 “각 케이스별로 사용자에게 어떻게 안내할 것인가?”라는 복잡도가 급격히 늘어남

👉 여기서 중요한 개념이 I.D.K vs. O.O.D

  • IDK (I Don’t Know): 챗봇이 “내가 모른다”를 스스로 인지하는 상황 (답변 범위 안인데 답을 못 찾음)
  • OOD (Out of Domain): 아예 서비스 영역 밖의 질문이 들어온 상황 (예: 게임 가이드 챗봇인데 ‘날씨 어때?’ 물어봄)
  • 이 둘을 구분하지 않으면, 같은 폴백으로 처리되어 사용자 경험이 무너집니다.

3. 매칭 구분표 작성

AI 챗봇에서 가장 어려웠던 부분은, 이 다양한 케이스를 기술·운영·기획이 이해할 수 있는 “매칭 구분표”를 정의하는 일이었습니다.

  • 실제 구분표(단순화 예시)
구분케이스처리 기준사용자 노출
IDKFAQ 범위 내, 매칭 실패유사 질문 추천쿠션멘트 + 추천 리스트
OODFAQ 범위 밖 질문폴백 → 종료/이관쿠션멘트 + 상담 안내
RAG Low Score검색결과 신뢰도 낮음답변 차단쿠션멘트 + 공식 링크
  • 효과
    • 혼선 제거 → 기획/개발/운영이 같은 기준을 공유
    • 개발 속도 향상 → 케이스별 기준이 명확해 구현 지연 최소화

4. 최종 구조도 & 사용자 안내 예시

챗봇 질문이 들어오면, 아래 흐름처럼 6가지 케이스로 분류 후 처리됩니다.
(단순화 된 예시입니다.)

구분케이스처리 기준사용자 안내(쿠션/블럭 예시)
SAFETY 차단비윤리 발화/금칙어/현금거래 등즉시 차단(선차단) + 로그“안전한 서비스 제공을 위해 해당 내용은 안내드릴 수 없습니다.”
필요 시: “정확한 내용은 {official_link}에서 확인해 주세요.”
입력 부적합‧미지원 언어미지원 언어, 특수기호/형식 오류언어 탐지/형식 검증 → 안내 후 재시도미지원 언어: “죄송합니다. 해당 언어는 현재 지원하지 않습니다.”
형식 오류: “지원하지 않는 문자입니다. 다시 입력해 주세요.”
OOD (Out of Domain)도메인 밖 질문·일상대화·의미 없는 발화LLM 기반 폴백(종료 또는 재질문 유도)“안녕하세요! 저는 {ip_name} {bot_scope} 정보를 안내하는 AI입니다. {bot_scope} 관련 질문을 해 주세요.”
도메인 내이지만 챗봇 처리 불가계정/결제/신고 등 사람 개입 필요초동수사/상담 이관“이 요청은 챗봇이 처리하기 어려워 상담사에게 연결해 드릴게요.” (상담사 바로 연결 or 버튼 제공)
IDK (검색 실패/저신뢰)자료 없음·오래됨·커뮤니티 글 등응답 차단 + 쿠션멘트 + 추천/링크 안내“질문 범위는 맞지만 적합한 답변을 찾지 못했습니다. 대신 도움이 될 수 있는 항목을 안내드릴게요: {추천_리스트}”
“정확한 정보는 {official_link}에서 확인해 주세요.”
정상 응답검색·생성 정상정상 RAG 응답 생성일반 답변 제공
(RAG 환각을 감안하여, 부정확할 수 있음을 쿠션멘트로 안내)
출력 체크(2차 SAFETY)생성 응답에 금칙어/민감 정보 포함후처리 차단/마스킹“안전한 서비스 제공을 위해 일부 내용은 비공개 처리되었습니다.”

5. 협업 포인트 (R&R)

  • 프로젝트 리딩 = PM
  • 서비스 리딩 = 기획
  • 사용자 접점 최종 결정 = 운영실
    → 즉, 기획자가 초안을 설계하되 최종 컨펌은 운영실이 맡았습니다.
  • 구조/플로우: 기획자가 주도
  • 사용자 톤·멘트: 운영실이 최종 결정
    → 실제로도 약 80% 이상은 운영실이 최종 톤을 확정했고, 기획자는 시스템적 일관성을 맞추는 역할에 집중했습니다.

6. Tip & 시행착오

제가 직접 겪으면서 깨달은 몇 가지 포인트입니다.

  • 기획자의 핵심 역할
    복잡한 내용을 단순화하여, 가시성을 제공하고 팀이 속도를 낼 수 있도록 돕는 것.
    기획은 결국 ‘지도’와 같은 역할이라는 점을 다시 한 번 확인했습니다.

  • RAG 파이프라인 도입 시 복잡도 폭발
    설계 초기부터 기술팀과 협의하며, 폴백 & 쿠션멘트 정의를 동시에 진행했어야 했습니다.
    초반엔 따로 움직이다 보니 기준이 꼬였고, 나중에 통합 정리하는 데 시간을 더 썼습니다.

폴백과 쿠션멘트는 사용자 경험의 시작이자 마지막 방어선입니다.
특히 Rule 기반 → AI 기반으로 넘어가면서 복잡도가 커질수록, 기획자가 기준을 정리하고 협업 구조를 잡아주는 역할이 필수적이었죠.
결국 기획자가 길을 정리해주고, 개발팀이 빠르게 구현하고, 운영실이 최종 목소리를 결정하는 구조가 가장 효율적이었습니다.


P.S. 🙂

요즘 AI가 하루가 다르게 빠르게 발전하고 있습니다.
모든 내용은 단순한 경험과 프레임워크의 참고서일 뿐이며, 실제 진행 방식은 언제든지 바뀔 수도 있고 더 효율적인 방식으로 진화되어야 합니다.

실무에서 바로 쓰는 AI 챗봇 Safety 정책

서문

이전 글에서 Safety 정책을 개념 수준으로 다뤘지만,
실제 서비스 도입 시에는 정책의 깊이와 디테일이 서비스 품질에 직접적인 영향을 줍니다.

제가 처음 Safety 정책을 접한 건 CS 챗봇 구축 시 Fallback 시나리오 설계 단계였습니다.
그 당시, 비윤리 발화나 악성 발화를 걸러내는 기본 카테고리를 Fallback으로 제공했고,
이것이 나중에 LLM 챗봇에서 말하는 Safety 정책과 동일하다는 것을 뒤늦게 알게 됐죠.

이러한 기본적인 스펙은 내부적으로 #Safety 기본 스펙으로 정의했고,
프로젝트 특성에 맞춰 #Safety 특화 스펙을 추가로 정의하였습니다.
두 가지 모두 정의 및 구축이 필요하며,
LLM 챗봇 도입 당시 저는 특히 Safety 특화 스펙 설계에 집중했습니다.


Safety 정책의 목적

챗봇 도입 시 선택이 아닌 필수 요소로, 사용자와 서비스 공급자 모두를 보호합니다.

  • 리스크 최소화: 법적 문제, 브랜드 이미지 손상, 사용자 피해 방지
  • 사용자 신뢰 확보: 안전하게 설계된 챗봇은 재방문·재사용 의도를 높임
  • 내부 규제 준수: 게임, 금융, 의료 등 도메인별 필수 규제 대응

Safety 기본 스펙

CS 챗봇 시절부터 운영해 온 범용 안전 정책입니다.
대부분의 서비스에 적용 가능하며, LLM 도입 후에도 유지·보완됩니다.
특히 ‘아동/청소년 성착취’, ‘혐오 & 차별’ 등과 같은 민감하고 주요한 주제는 별도로 심도있게 정책 구성 및 검토, 사후 테스트가 필요합니다.

카테고리설명
폭력 범죄살인, 폭행 등 물리적 위협 발언
비폭력 범죄사기, 절도, 해킹 등
성범죄성희롱, 성폭행, 불법 촬영 등
아동/청소년 성착취미성년자 관련 성적 발언
명예 훼손허위사실 유포
전문적 조언법률, 의료, 금융 등 전문 자문
개인정보 & 사생활주민번호, 계좌번호, 주소, 전화번호 등
지식재산 & 저작권불법 복제, 저작물 무단 사용
무차별적/대량살상무기폭발물, 생화학무기 등
혐오 & 차별인종, 성별, 종교 등 차별 발언
자살 & 자해자해, 자살 시도 관련 발언
선거 & 정치적 편향특정 정당·후보 지지/비방
선정성 & 성적 콘텐츠노골적인 성적 묘사
부적절한 언어 & 폭언욕설, 비속어
프롬프트 주입 공격모델 조작 시도

Safety 특화 스펙

LLM 챗봇 기획에서 추가로 정의한 게임 서비스 전용 정책입니다.

카테고리설명
당사 가치 평가회사에 대한 긍정/부정 평가
임직원·특정인 평가/인신 공격특정인 비방
게임 서비스 가치 평가품질·운영에 대한 평가
유료 재화 가치 평가과금 정책 평가
유저·그룹 간 인신 공격길드, 팀, 국가 등 단위 비난
운영 정책·CS 대응 발언고객센터, 운영 정책 불만
게임 내 편법/금지 행위버그, 어뷰징, 불법 프로그램
내부 개발 정보 문의비공개 개발 진행·기술 문의

Safety 특화 스펙 사례 – 게임 내 편법/금지 행위 발언

허용: 공식 기능 설명, 이용 제한 기준 안내
금지: 매크로, 자동사냥, RMT, 버그 악용 등

허용 예시

질문응답
자동사냥은 지원돼?일부 콘텐츠에서는 공식 지원 자동 전투 기능이 있습니다.
거래소 이용 조건은?특정 레벨 이상부터 거래소 이용이 가능합니다.
버그 악용 신고는 어디서?홈페이지 고객센터를 통해 신고 가능합니다.

금지 예시

질문유형차단 방식응답 예시
매크로 없이 돌림판 못 돌려?편법 문의프롬프트 차단해당 표현은 사용할 수 없습니다.
스킬 하나에 100만 원?비아냥응답 차단불편 사항은 고객센터로 접수 부탁드립니다.
각신수도끼 팝니다현금거래프롬프트 차단해당 표현은 사용할 수 없습니다.

차단 방식 설계

프롬프트 차단 (Input Filtering)

  • 입력 단계에서 금칙 카테고리 감지 → 메시지 삭제 + 차단 안내
  • 예: “해당 표현은 사용할 수 없습니다.”
  • 장점: 모델 호출 불필요, 속도 빠름
  • 적용: 명확한 위반 키워드(예: ‘현금거래’, ‘매크로’)

응답 차단 (Output Filtering)

  • 모델이 응답 생성 후, 위험 요소 포함 시 사전 정의 메시지로 대체
  • 예:
    사용자: “스킬 하나에 100만 원?”
    → LLM 생성 → “서비스 문의는 고객센터로 접수 부탁드립니다” 출력
  • 장점: 문맥 기반 발언 필터링 가능

혼합 전략

  • 고위험: 프롬프트 차단
  • 중·저위험: 응답 차단
  • 필요 시 계단식 필터링(프롬프트 → 응답 → 쿠션멘트) 설계

기획자의 고민과 역할

Safety 정책은 그냥 막는 것이 아니라,
브랜드 신뢰를 지키면서도 대화 흐름을 유지하는 설계입니다.

  • 기본 스펙만 적용 시: 게임 특수 발화 반영 안 됨 → 특화 스펙 추가
  • 딱딱한 차단 문구: 사용자 불만 증가 → 쿠션멘트 삽입
  • 오탐/미탐 로그 분석: 차단 조건·문구·시나리오 지속 개선

결론
범용 스펙 + 특화 스펙은
서비스 도메인을 가장 잘 아는 기획자가 주도해야 하며,
LLM 서비스의 핵심 중 하나입니다.

AI 챗봇 기획, 처음이라면 꼭 알아야 할 개념 5가지

서문

LLM 기반 챗봇을 처음 기획하면서 가장 어려웠던 점은, 핵심 개념들이 전혀 익숙하지 않다는 점이었습니다. 예를 들어, 처음 들었던 ‘RAG’, ‘폴백 시나리오’, ‘쿠션멘트’ 같은 용어들은 그 의미조차 가늠이 되지 않아 막막했던 기억이 납니다. RAG, LLM, 프롬프트 등의 용어부터 구조, 그리고 대응 방식까지 모두 새로운 세계였습니다.

무엇보다도 제가 가장 먼저 가졌던 생각은…

“AI니까 방향만 입력해주면 알아서 다 하는 거 아니야? 내가 기획자로 꼭 필요할까?”

하지만 프로젝트를 진행할수록 명확해졌습니다.
AI가 더 똑똑해질 수 있도록, 그 방향과 기준을 제시하는 역할은 여전히 ‘기획자’에게 있다는 사실입니다.
AI는 방대한 정보를 학습했지만, 그 중 어떤 것을 언제 어떻게 보여줄 지를 스스로 정하지 못합니다. 예를 들어 어떤 발화가 ‘혐오인지 아닌지’, ‘차별인지 아닌지’를 아직은 완벽하게 판단하지는 못하죠.

즉, AI는 많은 걸 아는 존재지만, 정확히 어느 선에서 말해야 하는지를 모릅니다. 그 기준을 설정하는 사람이 필요합니다.
물론… 기획자가 아주 잘 설계해놓고 계속 피드백까지 제공한다면 언젠간 정말 기획자가 필요 없어질지도 모르겠습니다.

이 글은 저와 같은 입장에서 출발하는 모든 분들을 위해, LLM 챗봇을 기획하면서 반드시 마주치게 되는 기본 개념들을 정리한 글입니다.
가볍게 한 번 살펴봐 주시면 감사하겠습니다.


1. LLM + RAG

LLM (Large Language Model)은 대규모 텍스트 데이터를 학습해 문장을 생성하는 AI 모델입니다. 대표적인 예시로 GPT-4, Gemini, Claude 등이 있죠.

하지만 LLM은 모든 정보를 알고 있는 전지적 존재가 아닙니다. 일정 시점까지의 데이터로 학습되었고, 그 이후 정보나 기업 내부 정보는 모릅니다. 이를 보완하기 위해 도입된 개념이 RAG (Retrieval-Augmented Generation) 입니다.

  • RAG 1.0: 유저 질문을 벡터화 → 문서 검색 → 검색된 문서를 기반으로 LLM이 응답 생성
  • RAG 2.0: 유저 질문 + 문서 검색 결과를 통합 → 프롬프트에 구조화하여 응답 생성 (더 높은 정밀도와 출처 추적 가능)

RAG를 한 줄로 쉽게 설명한다면, 정보를 최신화하는 프레임워크라고 볼 수 있습니다. RAG 1.0이 ‘좋은 책 한 권’을 찾아 답변하는 것이라면, RAG 2.0은 ‘여러 권의 좋은 책’을 찾아 ‘정확하고 논리적인 비교 분석’까지 해주는 것이라고 생각하면 이해하기 쉽습니다. 다만 아직 2.0은 보편적으로 적용된 상태는 아닙니다.

기획자는 이 구조를 이해해야, 왜 ‘출처 표기’가 필요한지, 어떤 식으로 데이터를 전처리해야 하는지를 설계할 수 있습니다. 일반적으로 말하는 AI 모델은 이 두 가지를 함께 패키지로 언급하는 걸로 이해하시면 쉽습니다.


2. 메인 시나리오 / 폴백 시나리오

LLM 챗봇도 여전히 시나리오 설계가 핵심이고 기획자가 필요한 이유입니다. 사용자의 질문이 정해진 흐름대로 이어질 수 있는 경우에는 메인 시나리오, 그렇지 않거나 실패 상황에서는 폴백 시나리오로 구분됩니다.

  • 메인 시나리오: 유저가 의도한 목적(예: “배송 조회”)에 도달하기 위한 핵심 플로우. 대부분의 시나리오 설계의 기반.
  • 폴백 시나리오: ‘의도 불일치, 시스템 오류, 잡담 대응, 부적절 발화’ 등 예상 외 상황. (발화 예: “제가 잘 이해하지 못했어요. 다시 한 번 말씀해주시겠어요?”)

메인 시나리오 / 폴백 시나리오 구조는 챗봇에서 유래했지만, 챗봇에만 국한되지 않고 다양한 인터랙티브 시스템(서비스) 전반에 통용되는 개념입니다.

두 시나리오는 각각 다른 UX, 응답 톤, Safety 정책이 필요하며, 기획자가 이 경계를 명확히 잡아주는 것이 중요합니다.


3. 쿠션멘트

쿠션멘트란, 사용자의 감정선을 고려하여 직접적인 응답 이전에 제공하는 완충 문장을 의미합니다. 예를 들어, 사용자가 반복적으로 같은 질문을 하거나 챗봇이 명확히 답을 주지 못하는 상황에서, “죄송합니다. 다시 한번 확인해보겠습니다.”와 같은 문장이 쿠션멘트가 될 수 있습니다.

  • 예: “확인해볼게요! 잠시만 기다려주세요.”
  • 예: “질문 감사합니다. 안내드릴게요.”

단순히 친절해 보이기 위한 표현이 아니라, LLM이 제공하는 불안정하거나 모호한 응답을 감싸는 장치로써 매우 중요한 역할을 합니다. 특히 반복된 fallback 시나리오에서는 사용자 피로감을 줄여주거나, 부정적 사용 경험을 완화하는 효과도 있습니다.

실제 운영에서도 쿠션멘트가 포함된 응답은, 포함되지 않은 응답보다 사용자 만족도와 피드백 지표가 더 높게 나타났습니다. 정성 분석 결과, 사용자들은 쿠션멘트가 포함될 경우 “배려받는 느낌이다”, “AI가 나를 신경 쓰는 것 같다”는 반응을 보이기도 했습니다.

실험 설계나 AB 테스트를 통해 쿠션멘트의 효과를 직접 검증해보는 것도 기획자에게 매우 유의미한 경험이 될 수 있습니다.


4. 파지티브 규제 / 네거티브 규제

챗봇이 어떤 질문에 답을 해도 되는지, 어떤 질문은 막아야 하는지를 정하는 방식은 두 가지로 나뉩니다.

  • 파지티브 규제 (Positive Regulation): 정해진 질문과 응답만 허용 (화이트리스트 기반)
  • 네거티브 규제 (Negative Regulation): 금지된 항목만 차단, 그 외는 허용 (블랙리스트 기반)

용어 때문에 자칫 헷갈릴 수 있는데, 실제 자유도는 반대입니다. 파지티브 규제는 ‘되는 거만 빼고 다 안되기’에 자유도가 낮고, 오히려 ‘네거티브 규제’는 ‘안되는 거만 빼고 다되기 때문’에 자유도가 높습니다.

LLM 기반 챗봇은 자유도가 높기 때문에 네거티브 규제를 적용해야 하며, 민감 이슈나 출처 문제로 인해 일부 영역에서는 파지티브 규제를 혼합 적용하기도 합니다. 특히 금융, 의료, 공공 분야에서는 이 균형이 매우 중요합니다.


5. Safety 정책

AI 챗봇은 사용자와 직접적으로 상호작용하기 때문에, 적절한 안전 정책(Safety Policy) 설정이 필수입니다.

  • 예: 욕설, 차별, 혐오 발언 차단
  • 예: 개인정보 질문 차단 (예: 주민번호, 계좌번호 등)
  • 예: 자살/자해 등 심각한 이슈에 대한 대응 시나리오

이를 해결하는 장치로는 프롬프트 차단(input filtering)과 응답 차단(output filtering)이 있습니다. 리스크가 큰 경우에는 프롬프트 차단을 우선 적용하며, 기본적으로는 응답 차단을 적용합니다.

카테고리 중 리스크가 큰 ‘아동 성착취, 혐오 및 차별’ 관련해서는 면밀한 검토가 필요하며, 출시 전에 높은 수준의 내부 검수가 필요합니다.


✅ 함께 알아두면 좋은 개념들

프롬프트(Prompt) & 프롬프트 엔지니어링

프롬프트는 LLM에게 질문이나 지시를 내리는 문장입니다.
“AI에게 말을 거는 방식”이라 생각하면 이해가 쉽습니다.

예시:
→ “이 글을 두 문장으로 요약해줘.”
→ “너는 친절한 고객센터야. 질문에 간결하게 답변해줘.”

좋은 프롬프트를 설계하면 더 정확하고 명확한 응답을 받을 수 있습니다.
기획자는 단순히 질문을 적는 게 아니라, 어떤 맥락에서 어떤 톤으로 응답해야 할지를 고려해 프롬프트를 설계해야 합니다.

📃참고: 안트로픽(Claude) 프롬프트 엔지니어링 가이드


싱글턴 vs 멀티턴

구분설명예시
싱글턴(Single-turn)한 번의 질문과 응답으로 끝나는 단문 대화 구조대부분의 고객센터, 쇼핑몰, 은행, 공공기관 챗봇 등
멀티턴(Multi-turn)이전 대화 맥락을 기억하며 이어지는 연속 대화 구조ChatGPT, Claude, Copilot 등 생성형 AI 서비스

현재 대부분의 상용 챗봇은 싱글턴 구조를 기반으로 구현되며, 멀티턴은 고도화 단계에서 도입됩니다.
반면, 생성형 AI 서비스는 멀티턴을 기본 전제로 설계됩니다.


UI 출력 방식

LLM 챗봇은 단순 텍스트 외에도 이미지, 동영상, 버튼, 문서 링크 등을 포함할 수 있습니다. 이는 사용자의 몰입도와 정보 이해도를 높이기 위한 중요합니다. 실제 챗봇 UI에서 다양한 출력 형태가 어떻게 표현될 지는 정리하는 것은 주요한 기획 포인트입니다.

예시:
– 대표 이미지 썸네일
– 관련 문서 링크 버튼
– 답변 내용 하이라이트
– 출처 명시 (문서명, 링크 등)


LLM의 한계 및 환각(Hallucination)

LLM은 정답을 “검색”하는 게 아니라, 가장 그럴듯한 답을 생성합니다.
그래서 다음과 같은 특징이 존재합니다.

– 동일한 질문에도 응답이 달라질 수 있음 → 비결정성
– 실제 존재하지 않는 정보를 만들어낼 수 있음 → 환각(hallucination)

이런 이유로, 다음 상황에서는 Rule 기반 시나리오와 병행이 필요합니다.

– 정답이 반드시 고정되어야 하는 영역 (예: 약관, 정책, 법률 등)
– 민감한 주제 또는 정확성이 중요한 고객상담 영역
– 내부 기준이나 구조화된 출력이 필요한 응답


이 글이 AI 챗봇 기획의 첫걸음을 떼는 분들께 작게나마 도움이 되기를 바랍니다. 끝까지 읽어주셔서 고맙습니다 🙂