AI가 내 일자리 뺏는다는 건에 대하여: 누군가는 과로사하고 누군가는 굶을 것이다

번역가, 왜 이렇게 빨리?

문체부 산하 기관에서 실험을 했다. AI(ChatGPT)로 한글을 영문으로 번역한 것과 전문 번역가가 번역한 것을 영문과 교수들에게 블라인드 평가를 받았다. 결과는 이랬다.

  • 16명 중 12명: AI 번역이 낫다
  • 2명: 우위 구별 불가
  • 2명: 인간 번역이 낫다

번역가. 어마어마한 전문직이었다. 통역대학원 나오고, 수십 년 경력 쌓고. 근데 왜 이렇게 빨리 대체 얘기가 나오는 걸까?

반면에 의사, 변호사는 “AI가 도와주는 도구” 정도로 얘기되고 있다.

뭐가 다른 걸까?


“전문직”이라고 다 같은 게 아니다

우리가 “전문직”이라고 부르는 게 사실 두 종류다.

전문직 전문기술직
예시 의사, 변호사, 회계사 번역가, 디자이너, 개발자
핵심 판단 + 책임 기술 (만들어내는 것)
품질 검수(QA) 누가 함? 동종 전문가만 의뢰인도 가능

번역가: 번역물 주면 읽어보면 이상한지 안다. 의뢰인이 검수 가능.

의사: 환자가 진단 맞는지 검증 못 한다. 전문가만 검수 가능.

이게 핵심이다. 품질 검수(QA)를 누가 할 수 있느냐.


대체 가능성 공식

내가 정리한 프레임이 있다.

업무 분류 2축

1. 흐름 기준

  • 의뢰형: 요청이 들어오면 처리 (번역, 디자인, CS)
  • 문제정의형: 문제 자체를 찾고 정의 (전략, 기획)
  • 유지형: 시스템 돌아가게 함 (운영, 인프라)

2. 가치 창출 기준

  • 실행: 만들어내는 것 → AI 대체 가능성 높음
  • 판단: 뭘 만들지 결정 → 중간
  • 책임: 결과에 대한 책임 → 낮음

번역가 vs 의사

번역가 의사
흐름 의뢰형 의뢰형
가치 실행 판단 + 책임
품질 검수(QA) 의뢰인 가능 전문가만
책임 계약 법적/생명
대체? 높음 낮음

둘 다 의뢰형인데, 가치 창출 지점이 다르고, 품질 검수 주체가 다르다.


왜 의사/변호사는 안 대체되나

1. 품질 검수(QA)를 고객이 못 한다

  • 번역: 읽어보면 이상한지 안다
  • 디자인: 보면 이상한지 안다
  • 의료: 환자가 진단 맞는지 모른다
  • 법률: 의뢰인이 법리 해석 검증 못 한다

2. 책임 구조

AI가 틀리면?

  • 번역 틀림 → 다시 하면 된다
  • 진단 틀림 → 사람 죽는다. 누가 책임지나?

AI는 책임 주체가 될 수 없다. 법적으로.

3. 자격/면허

  • 의사 면허 없으면 진료 불법
  • 변호사 자격 없으면 법률 대리 불법
  • AI한테 면허 안 준다

“손으로 하는 일은 남는다”?

요즘 이런 말 많이 들린다.

“배관공, 전기공이 살아남는다”
“변호사보다 목수가 낫다”

일론 머스크, 젠슨 황도 비슷한 얘기 했다.

근데 나는 좀 다르게 본다.

로봇도 빠르게 오고 있다

회사 로봇 상태
Tesla Optimus 공장 투입 시작
Figure Figure 02 BMW 공장 파일럿
Agility Digit Amazon 물류 테스트

LLM이 로봇의 뇌가 되면서 급가속 중이다. 예전엔 로봇이 “상황 판단”을 못 했는데, 이제 LLM이 그걸 해준다.

일론/젠슨이 저 말 한 맥락

“데이터센터 지어야 하는데 배관공이 없어”

근데 생각해보면. 일론 머스크 주변에 누가 있나? 개발자 차고 넘친다. 근데 데이터센터 공사할 사람이 자기 네트워크에 없으니까 “배관공이 귀하다”고 느끼는 거 아닐까?

본인 네트워크 편향일 수 있다는 거다.

진짜 포인트

온라인이냐 오프라인이냐가 중요한 게 아니다.

구분 온라인 오프라인
의뢰형 + 실행 번역, 코딩, 디자인 타일 붙이기, 배관 설치
대체? O (LLM) O (로봇 + AI 뇌)
남는 것 판단 + 책임 판단 + 책임

현장에서도 마찬가지다.

  • 단순 타일 붙이기 = 데이터가 비정형이어도 AI 뇌 + 센서 들어가면 사람보다 잘한다
  • 전체 워크플로우 돌리고 책임지는 반장급 = 살아남는다

결국 같은 프레임이 적용된다.


그래서 어떻게 해야 하나

1. “직업”이 아니라 “업무”로 봐야 한다

같은 “기획자”여도:

  • 스펙 문서 쓰는 사람 (의뢰형/실행) → 대체 가능성 높다
  • 방향 정의하는 사람 (문제정의형/책임) → 대체 가능성 낮다

직업명이 아니라, 내가 실제로 하는 업무가 어디에 있는지 봐야 한다.

2. 실행 → 판단/책임으로 이동

  • 코드 짜는 개발자 → 아키텍처 설계하고 책임지는 시니어
  • 번역하는 번역가 → 품질 관리하고 최종 검수하는 에디터
  • 디자인하는 디자이너 → 브랜드 방향 잡는 디렉터

3. 품질 검수(QA)를 고객이 못 하는 영역 확보

내가 만든 결과물을 의뢰인이 직접 검증할 수 없으면, 그만큼 대체가 어렵다.

4. 온라인/오프라인은 취향대로

“육체 노동이 안전하다”? 시간 문제다.

“인지 노동이 위험하다”? 그 안에서도 판단/책임은 남는다.

좋아하는 거 하면 된다. 대신 그 안에서 문제 정의하고, 결과물에 더 큰 책임 지는 위치로 가면 된다.


한 줄 요약

AI 시대에 살아남는 건 “손”이 아니라 “판단 + 책임”이다.
온라인이든 오프라인이든, 의뢰형/실행형에서 문제정의형/책임형으로 이동하라.


참고 자료:

  • [기계 번역 – 나무위키](https://namu.wiki/w/%EA%B8%B0%EA%B3%84%20%EB%B2%88%EC%97%AD) (문체부 산하 기관 블라인드 테스트)
  • [GPT-4 vs. Human Translators – arXiv](https://arxiv.org/html/2407.03658v1)
  • [AI와 인간 번역의 법률 텍스트 비교 연구 – PMC](https://pmc.ncbi.nlm.nih.gov/articles/PMC10958410/)

2026년 2월 9일