안녕하세요, blog.ne.kr입니다. 2026년 4월 1일, 인류의 달 탐사 프로젝트인 아르테미스 2호 발사 현장을 생중계하던 KBS가 AI 자동번역 오류로 인해 부적절한 자막을 내보내는 사태가 발생했습니다. “굴러 X년아”라는 자막이 공영방송 화면에 그대로 노출되면서 온라인을 뜨겁게 달궜는데요. 이번 글에서는 사건의 전말과 원인, 그리고 AI 번역 기술의 현주소와 개선 방향을 정리해 드리겠습니다.
TL;DR 핵심 요약
- 발생: 2026년 4월 1일 KBS 유튜브 아르테미스 2호 생중계 중 AI 자동번역 자막에 비속어 노출
- 원인: 영어 단어의 발음이 한국어 비속어와 유사해 AI가 잘못 번역
- KBS 대응: 4월 2일 공식 사과 + 해당 자막 비공개 처리 + AI 욕설 필터링 강화 방침 발표
- 파장: 온라인 커뮤니티와 SNS에서 빠르게 확산, “공영방송 책임 문제” 논란으로 확대
- 시사점: 생중계 AI 번역의 사전 필터링 체계 부재가 근본 원인으로 지목
목차
- 사건 개요 — 무슨 일이 있었나 (아르테미스 2호 생중계 중 벌어진 일)
- AI 번역 오류의 기술적 원인 분석 (왜 이런 오역이 발생하는가)
- KBS의 공식 입장과 후속 조치 (사과문 내용과 재발 방지 대책)
- 공영방송 AI 활용의 책임 문제 (언론과 AI가 만날 때)
- 자주 묻는 질문 (FAQ)
- 핵심 체크리스트
사건 개요 — 무슨 일이 있었나
아르테미스 2호 발사라는 역사적 순간이, 예상치 못한 자막 사고로 기억에 남게 됐습니다.
미국 나사(NASA)의 아르테미스 2호는 2026년 4월 1일 오후 6시 35분(미 동부 시간) 플로리다주 케네디 우주센터에서 발사됐습니다. 달 탐사를 목표로 한 이번 임무는 약 10일간 비행 후 미국 샌디에이고 인근 태평양 해상에 착수할 예정이었습니다. KBS는 이 역사적 장면을 유튜브를 통해 국내 시청자에게 실시간으로 전달하기로 했습니다.
문제는 생중계 과정에서 발생했습니다. KBS는 NASA의 영어 음성을 실시간으로 한국어로 변환하기 위해 AI 자동 번역(실시간 자막 생성) 기술을 활용했는데, 이 과정에서 영어 발음이 한국어 비속어로 잘못 변환된 자막이 화면에 그대로 노출됐습니다. 구체적으로는 “로저, 굴러, X년아”, “변기를 회전시켰을 때” 등의 자막이 생중계 화면에 등장했습니다.
어떤 장면에서 발생했나
해당 오역은 NASA 통제센터와 우주선 사이의 교신 장면에서 발생했습니다. 항공·우주 분야에서 흔히 쓰이는 영어 표현들의 발음이, AI 모델이 학습한 한국어 음성 패턴과 겹치면서 오류가 발생한 것으로 분석됩니다. 특히 “Roger(로저)”처럼 짧고 또렷하게 발음되는 단어들이 유사 음절의 한국어 비속어로 치환되는 현상이 나타났습니다.
| 추정 원문 영어 표현 | 잘못 출력된 한국어 자막 |
|---|---|
| Roger (로저) | 굴러 (발음 유사) |
| Roll (롤) | X년 (유사 발음 오인) |
| Rotate (로테이트) | 변기를 회전 (일부 음절 오역) |
⚠️ 위 표는 KBS 공식 발표와 커뮤니티 캡처 등을 바탕으로 재구성한 것으로, 정확한 원문 대조는 KBS가 공개하지 않아 추정치가 포함됩니다.
AI 번역 오류의 기술적 원인 분석
왜 AI는 “Roger”를 비속어로 번역했을까요? 기술적 배경을 이해하면 이번 사태가 보입니다.
현재 실시간 AI 자막 번역은 주로 자동 음성 인식(ASR, Automatic Speech Recognition) + 신경망 기계번역(NMT, Neural Machine Translation) 을 결합한 파이프라인으로 구성됩니다. 음성을 텍스트로 변환한 뒤, 그 텍스트를 다시 대상 언어로 번역하는 방식입니다. 생중계처럼 지연이 거의 없는 환경에서는 이 과정이 초 단위로 이루어져야 하기 때문에 오류 검증 단계가 생략되거나 매우 짧습니다.
음성 인식 단계의 취약점
음성 인식 모델은 발음의 음소(音素) 패턴을 분석해 가장 가능성 높은 단어를 예측합니다. 문제는 이 예측이 맥락(context)보다 발음 유사도에 의존하는 경우입니다. “Roger”의 한국어 음차 표기는 “로저”이지만, 모델이 학습한 데이터에 한국어 비속어와 유사한 패턴이 다수 포함되어 있으면 해당 단어가 우선순위로 선택될 수 있습니다.
번역 단계의 문제
ASR이 잘못된 텍스트를 출력하면, NMT 모델은 그 잘못된 입력을 그대로 번역합니다. 즉 “쓰레기 입력 → 쓰레기 출력(Garbage In, Garbage Out)” 원칙이 그대로 적용됩니다. 번역 모델 자체에 욕설 필터링이 없다면, 비속어도 아무런 제지 없이 자막으로 출력됩니다.
생중계 환경의 구조적 한계
| 일반 번역 환경 | 생중계 실시간 번역 환경 |
|---|---|
| 검토·수정 시간 확보 가능 | 즉각 출력, 수정 시간 없음 |
| 문맥 전체 참고 가능 | 짧은 윈도우 내 음성만 처리 |
| 사람 검수 가능 | 자동화에 전적으로 의존 |
| 욕설 필터 후처리 가능 | 필터 없으면 즉시 노출 |
생중계 특성상 사람이 개입해 오역을 걸러낼 시간이 존재하지 않습니다. 따라서 AI 번역 시스템 자체에 내장된 사전 필터링이 반드시 필요합니다. 이번 사태는 KBS가 이 필터링 없이 AI 번역을 생중계에 그대로 적용했다는 점에서 준비 부족이 지적됩니다.
KBS의 공식 입장과 후속 조치
사태 다음 날인 4월 2일, KBS는 유튜브 커뮤니티를 통해 공식 입장을 밝혔습니다.
KBS는 사고 발생 다음 날인 4월 2일, 유튜브 커뮤니티 채널을 통해 다음과 같은 내용의 공식 사과를 발표했습니다.
“미국 나사(NASA)의 생중계 과정 중 AI를 통한 실시간 번역 자동 생성 과정에서 단어 발음 유사성으로 인해 일부 단어가 비속어로 잘못 번역됐습니다. 비속어로 잘못된 문구가 노출된 점 시청자 여러분께 진심으로 사과드립니다.”
아울러 “송출된 AI 관련 번역 오류에 대해서는 되돌리기 금지(비공개) 조치를 취했다” 고 밝혔으며, 향후 대응책으로 AI 욕설 필터링 강화와 관련 부서 및 업체와의 긴밀한 협의를 진행 중이라고 강조했습니다.
후속 조치 요약
| 조치 항목 | 내용 | 완료 여부 |
|---|---|---|
| 공식 사과문 발표 | 유튜브 커뮤니티 게시 | 완료 (4월 2일) |
| 문제 영상 비공개 처리 | 오역 자막 포함 구간 제한 | 완료 |
| AI 욕설 필터링 강화 | 관련 업체와 개선 협의 중 | 진행 중 |
| 생중계 AI 번역 운영 기준 재검토 | 내부 점검 단계 | 진행 중 |
💡 이번 사과가 유튜브 커뮤니티를 통해 이루어진 점도 주목할 만합니다. 공영방송의 공식 사과가 본방송이나 공문이 아닌 소셜 플랫폼을 통해 먼저 이루어진 것은, KBS가 유튜브 채널을 통해 일어난 사고이기 때문에 해당 채널에서 먼저 소통한 것으로 해석됩니다.
공영방송 AI 활용의 책임 문제
웃고 넘길 해프닝인가, 아니면 공영방송 신뢰의 균열인가.
이번 사태에 대한 누리꾼들의 반응은 크게 두 갈래로 나뉩니다. “웃기긴 하지만 그냥 넘길 일은 아닌 것 같다”는 쪽과 “공영방송에서 이런 자막이 나오는 게 말이 되냐”며 강하게 비판하는 쪽입니다. 특히 “AI 번역이라도 최소한의 필터링은 해야 하는 것 아니냐”, “생중계라고 해도 관리가 너무 허술하다”는 지적이 많았습니다.
공영방송의 기술 도입 책임
공영방송(Public Broadcaster)은 수신료와 광고 수입으로 운영되며, 시청자에게 신뢰할 수 있는 정보를 제공할 의무가 있습니다. AI 도구를 방송에 도입할 때는 단순히 “AI가 한 일”이라는 이유로 책임을 회피할 수 없습니다. 도구 선택, 검증, 운영 기준 수립 모두 방송사의 몫입니다.
실시간 번역 AI 도입 시 방송사가 갖춰야 할 기준
실제로 AI 번역을 생중계에 안전하게 활용하려면 다음과 같은 기술적·운영적 기준이 필요합니다.
“` [생중계 AI 번역 안전 운영 체크포인트]
- 사전 필터링 (Pre-filter)
- 욕설 블랙리스트 적용
- 도메인 특화 용어 사전 구축 (항공, 우주 전문 용어)
- 신뢰도 임계값 설정 (Confidence Threshold)
- 번역 신뢰도가 낮은 구간 자막 출력 보류 또는 경고 표시
- 사후 필터링 (Post-filter)
- 출력 전 패턴 매칭으로 비속어 검출 및 대체 처리
- 인간 모니터링 레이어 (Human-in-the-Loop)
- 담당자 실시간 모니터링 및 긴급 차단 권한 부여
- 장르별 맞춤 모델 적용
- 과학/우주 중계 전용 ASR 모델 사용 (일반 모델보다 전문 용어 정확도 향상)
“`
⚠️ 이번 사태는 단순한 기술 오류가 아니라, AI 도입 전 충분한 검증과 운영 체계 없이 생방송에 투입한 구조적 문제라는 시각이 업계에서 지배적입니다.
AI 번역 신뢰도 저하 우려
이번 사태로 “AI 번역 신뢰도가 떨어진다”는 반응도 나왔습니다. 실제로 AI 자동번역은 구글 번역, 파파고, DeepL 등의 발전으로 일상 번역에서 높은 수준에 도달했지만, 전문 도메인·실시간·고위험 환경에서는 여전히 인간 검수가 필수적입니다. 아르테미스 생중계처럼 전 세계가 주목하는 역사적 장면에서 검증 없는 AI 자막이 노출된 것은 명백한 준비 부족입니다.
자주 묻는 질문 (FAQ)
Q1. KBS는 왜 AI 번역을 사용했나요?
생중계 실시간 번역은 사람이 직접 통역하면 즉각성이 떨어지고 비용도 높습니다. AI 자동 번역은 수초 내 결과를 출력할 수 있어 국내 방송사들이 해외 생중계에 점점 더 많이 도입하는 추세입니다. 그러나 이번 사태에서 드러나듯, 도입 전 충분한 필터링 체계를 구축하지 않으면 오히려 방송 사고로 이어질 수 있습니다.
Q2. 아르테미스 2호 발사는 성공했나요?
네, 아르테미스 2호는 2026년 4월 1일 오후 6시 35분(미 동부 시간) 플로리다주 케네디 우주센터에서 정상 발사됐습니다. 달 탐사를 목표로 약 10일간 비행 후 미국 샌디에이고 인근 태평양 해상에 착수할 예정입니다. KBS의 자막 사고와 무관하게 임무는 순조롭게 진행 중입니다.
Q3. AI 욕설 필터링이란 무엇인가요?
AI 욕설 필터링(Profanity Filtering)이란 AI가 생성한 텍스트에서 부적절한 단어나 표현을 자동으로 감지해 제거하거나 대체하는 기술입니다. 블랙리스트 방식(특정 단어 목록 차단)과 모델 기반 방식(문맥을 이해해 부적절한 표현 탐지) 두 가지가 주로 사용됩니다. KBS는 이번 사태 이후 욕설 필터링 강화를 공식 대책으로 제시했습니다.
Q4. 이런 AI 번역 오류는 KBS만의 문제인가요?
아닙니다. 실시간 AI 자막 오류는 세계 여러 방송사에서 발생한 바 있습니다. 2023년 BBC의 한 생중계에서도 AI 자막 오류로 논란이 된 사례가 있었습니다. 핵심은 특정 방송사만의 문제가 아니라, 실시간 AI 번역을 안전하게 활용하는 운영 기준이 아직 업계 전반에 정착되지 않았다는 것입니다.
Q5. 시청자는 어떻게 대응할 수 있나요?
현재로서는 방송사에 공식 의견을 전달하거나, 방송통신심의위원회에 민원을 제기하는 방법이 있습니다. 또한 생중계 자막이 AI 자동 번역임을 인식하고, 중요한 내용은 별도의 공식 번역본을 통해 확인하는 미디어 리터러시(Media Literacy) 습관이 중요합니다.
마무리
이번 KBS 아르테미스 2호 생중계 AI 번역 오류 사태는 단순한 해프닝을 넘어, AI 도구를 공영방송에 도입할 때 어떤 책임과 기준이 필요한지를 명확히 보여준 사건입니다. “AI가 한 일”이라는 말은 방송 사고의 면죄부가 될 수 없습니다. 기술을 선택하고 운영하는 주체는 결국 사람이고, 방송사이기 때문입니다.
이 글이 도움이 됐다면 댓글로 의견을 남겨 주세요. 공영방송의 AI 활용 기준에 대한 여러분의 생각이 궁금합니다.
핵심 체크리스트
- [ ] KBS가 아르테미스 2호 생중계 중 AI 자동번역 오류로 비속어 자막을 내보낸 사실을 확인했다
- [ ] 오류 원인이 영어 발음과 한국어 비속어의 유사성에 있다는 점을 이해했다
- [ ] KBS가 4월 2일 공식 사과하고 해당 영상을 비공개 처리했다는 사실을 확인했다
- [ ] AI 번역 생중계에는 욕설 필터링, 신뢰도 임계값, 사람 모니터링이 필수임을 이해했다
- [ ] 아르테미스 2호 발사 자체는 정상적으로 진행되고 있다는 사실을 확인했다
- [ ] AI 자동번역 자막은 오역 가능성이 있어 비판적으로 수용해야 함을 인지했다
- [ ] 방송사의 AI 도구 도입에는 충분한 사전 검증과 운영 기준이 선행돼야 함을 이해했다






