인공지능의 창작능력 보다 더 필요한 것 '검증능력'

최근 챗GPT, 미드저니 등의 다양한 인공지능 프로그램을 업무와 창작활동에 이용하는 경우가 늘고 있다. [일러스트=프리픽]
최근 챗GPT, 미드저니 등의 다양한 인공지능 프로그램을 업무와 창작활동에 이용하는 경우가 늘고 있다. [일러스트=프리픽]

2차대전 때 프랑스 파리에서 있었던 일이다. 노르망디 상륙작전 이후 연합군의 반격으로 독일군은 4년 동안 지배했던 파리에서 철수해야할 상황이었다.

히틀러는 아주 무시무시한 명령을 내린다. 에펠탑, 루브르 미술관 등을 비롯한 파리의 여러 문화시설과 유적지를 파괴하라는 것이다. 당시 총통 히틀러의 명령을 어길 사람이 얼마나 있을까? 대부분의 독일군들은 특별한 상황이 아니라면 이 파괴명령을 충실히 수행했을 것이다.

그러나 파리를 관할한 한 독일 장군은 이 명령을 거부한다. 그의 불복종이 히틀러에겐 불행을, 인류에겐 행운을 가져다주었다.  그는 디트리히 폰 콜티츠(Dietrich vonCholtitz) 장군이다.

그는 이 명령 불복종 덕분에 전범재판에서 사형을 면했다. 그의 회고록에서 명령을 거부한 이유로 3가지를 말한다. 첫째, 인류 문화의 유산인 파리를 파괴함으로써 독일이 얻을 군사적 이익이 없다는 것. 둘째, 프랑스 파리의 역사와 문화에 대한 애정이 있었던 것이다. 그리고 셋째, 당시 히틀러가 미쳤다는 자신의 판단에 대한 확신이 있었다고 한다. 


◆ 히틀러 명령에 불복한 獨 장교, 프랑스 문화 수호자 평가


이런 전시 상황에서 잘못된 명령이라고 판단하더라도 군 체계상 불복종은 어려운 일일 것이다. 실제로 디트리히는 파리의 문화유산을 지키는 것 외에 다른 명령은 잘 지켰던 것 같다. 심지어 2차대전 초기부터 진행한 유대인 학살도 참여했다는 주장이 있었다.

그럼에도 그가 파리 폭파 지시를 왜 거부했을까? 아마도  미친 사람같은 히틀러의 명령이 인류를 망가뜨릴 것이라는 두려움을 가졌을 것이다. 또한 그동안의 잘못된 결정으로 생명을 앗아간 행동에 대한 양심의 가책이었을 것이다.

이렇게 자신의 행동에 대해서 반성하고 고뇌하는 것이 사람의 본 모습이다. 군인임에도 명령을 거부할 수 있는 용기를 가진 것은 그가 사람이었기 때문이다. 그의 현명함 덕분에 파리의 에펠탑은 지금도 늠름하게 서 있다.

 2차대전 당시 독일의 히틀러는 에펠탑 등 프랑스 파리의 문화재를 파괴하라는 명령을 부하 장교에게 내린다. 하지만 그 장교는 히틀러의 명령을 거부했고, 그 결과 에펠탑은 현재에도 프랑스의 대표적 관광지로 명성을 떨치고 있다. [사진=프리픽]
 2차대전 당시 독일의 히틀러는 에펠탑 등 프랑스 파리의 문화재를 파괴하라는 명령을 부하 장교에게 내린다. 하지만 그 장교는 히틀러의 명령을 거부했고, 그 결과 에펠탑은 현재에도 프랑스의 대표적 관광지로 명성을 떨치고 있다. [사진=프리픽]

미국과 소련의 냉전시대에 이런 일이 있었다. 한 소련 군장교가 핵전쟁을 막아 인류를 구원한 사건이었다.

1983년 9월26일 소련의 최신 조기경보 시스템에서 비상 사이렌이 울렸다. 1발의 핵미사일이 미국에서 발사되었고 가장 위험한 상황이라고 시스템은 경고했다. 이어서 1분 후 경보 시스템은 두 번째부터 다섯 번째까지 대륙간탄도미사일(ICBM)이 발사되었고 미사일 공격으로 대응해야 한다고 변경했다. 이 시설은 핵공격을 받으면 바로 자동으로 반격할 수 있도록 크렘린에 보고해야하는 시스템이다.

여기에 누가 근무하든 핵공격 사이렌이 울리면 바로 최상부에 무조건 바로 알려야 한다. 규정상 이 시스템 컴퓨터의 데이터를 기반으로 판단하고 조치해야 되기 때문이다. 하지만 당시 근무 최고책임자였던 스타니슬라프 페트로프 중령은 반대로 판단했다. 탐지 위성의 오류로 이 경보가 발생했다고 여겼다. 

그가 핵미사일 감지 시스템의 오류라고 판단했던 것은 2가지 이유 때문이었다. 그는 미국이나 소련이나 국운을 걸고 핵미사일 공격을 하려면 몇 발이 아닌 수백발을 발사해야 한다고 생각했다.

그리고 위성이 감지한 후 지상 레이더에서도 ICBM을 감지해야하는데 그런 보고가 없었다는 점이다. 이것을 몰랐다면 바로 크렘린에 미국의 선제공격이라고 보고했을 것이다. 그렇다면 소련은 핵공격으로 맞대응을 했을 것이다. 그가 아니었다면 분명 소련의 실수로 미국에 선제공격하는 엄청난 핵전쟁이 발생했을지 모른다.

그럼에도 당시 소련은 그에게 매우 인색하게 대응했다. 왜냐하면 최신 탐지 위성의 시스템 오류가 미국과 서방세계에 알려지길 원하지 않았기 때문이다. 실제로 보안상 극비였기 때문에 외부에 알려지지 않았고 소련이 붕괴된 후 드러난 사실이었다. 

최근 챗(chat) GPT, 미드저니 등의 다양한 인공지능 프로그램을 업무와 창작활동에 이용하는 사례가 늘고 있다. 이 인공지능 프로그램은 창작의 고정관념을 깨드렸다. 원하는 정보를 검색을 해야만 얻거나 사람이 모든 분야에서 직접 창작해야 한다는 방식의 변화를 가져왔다.

사람보다 당연히 빠르고 더 나은 것이 많다. 이용해본 사람들은 알겠지만 이 인공지능은 어떻게 해서든 원하는 답을 하려고 한다. 심지어 틀린 답도 포장해서 답을 한다.

정답여부와 관계없이 자신의 요청에 성실히 답을 하는 인공지능의 능력에 감탄할 것이다. 어떤 답이든 일단 완벽하게 소화하는 성실함에 반하지 않을 사람이 별로 없을 것이다.


◆ 챗GPT 대세... 인공지능, 100% 신뢰할 수 있을까


유튜브, 인스타그램, 틱톡, 블로그 등에서 인공지능을 이용한 수익창출 방법이 많이 있다. 인공지능으로 1분 만에 영상콘텐츠 만드는 법, 인공지능으로 월 1000만원 버는 법 등에 관한 다양한 방법을 소개하는 내용이 많다. 그래서 새롭게 온라인 콘텐츠 창작활동을 준비하는 사람들은 인공지능의 신뢰도를 높게 보는 경향이 있다.

인공지능이 대세라해도 이를 통해 모든 것을 결정하는 것은 바람직하지 않다. 인공지능을 이용하는 사람이 분별력과 건전한 판단력이 있어야 한다. 왜냐하면 인공지능이 학습과정에서 이용한 저작물과 콘텐츠, 정보에 대한 책임이 뒤따를 수 있기 때문이다.

 AI가 산업은 물론 생활 곳곳에 관여하는 시대에 살고 있다. [사진=프리픽]

이용자가 직접 복제한 것은 아닐지라도 그 결과물의 이용과정에서 인공지능이 만들었다는 사실을 숨길 수도 있다. 또한 이야기하더라도 기존 사람의 창작물과 유사한 형태의 결과물이 나올 수 있다. 이 때 타인의 창작물과 비슷한 점이 있거나 사실상 똑같음에도 그대로 이용한다면 표절문제가 발생한다.

예로 논문이나 뉴스 기사, 연구자료, 정보관련 다양한 콘텐츠를 만들 때  어떤 자료, 어느 언론사, 누구의 논문과 책 등에 대한 기본적인 출처명시를 해야 한다. 그런데, chat GPT는 출처의 정확도가 부족한 편이다. 계속 문제점을 개선하고 있다고 한다.

그럼에도 이것을 모르고 그대로 이용한다면 예상치 못한 실수를 공개적으로 할 수 있다. 너무나 많은 데이터를 가지고 학습한 덕에 새로운 콘텐츠를 다양하게 생산할 수 있지만 타인의 저작물과 관련한 출처를 제대로 구분하지 못한다는 점이 큰 문제다.

이런 상황에서 인공지능을 통한 창작프로그램을 무한신뢰하면 잘못된 정보의 판단과 표절작에 대해서도 그냥 이용할 수밖에 없다. 결국 chat GPT와 같은 인공지능이 대세라해도 이용자가 인공지능에 지배당하지 않아야 하고 결과물에 무조건 복종해서는 안 된다. 반드시 다시 확인해야 한다.    

4차산업 혁명을 한참 이야기하던 때가 있었다. chat GPT의 등장으로 이제야 인공지능을 통한 4차산업 혁명을 실제로 체감하고 있는 듯하다. 모든 분야에서 인공지능을 이용한 분석, 창작과 생산, 실적이 증가하면서 인공지능의 지배와 명령을 스스로 선택할 수 있다.

하지만 무겁고 중요한 책임을 가진 사람들이 인공지능을 너무 신뢰하다보면 이런 일이 생길지 모른다. 어느 날 이 인공지능의 판단을 히틀러의 무시무시한 명령으로 생각해서 무조건 핵미사일을 발사해야할 수도 있다. 잘못된 정보와 판단을 거절할 수 있는 용기를 가진 사람이 더 많았으면 한다.   

한광수 칼럼리스트(저작권 전문강사)
한광수 칼럼리스트(저작권 전문강사)

 

저작권자 © 뉴스캔 무단전재 및 재배포 금지