[언론윤리] 국내외 언론계 AI 윤리 가이드라인 점검

한국영상기자협회는 지난 5월 26일 제110회 이달의 영상기자상(2023년 3월~4월)의 ‘보도특집 다큐부문’으로 제주MBC에서 지난 3월 방영된 다큐멘터리 ‘4.3 특집 남겨진 아이들’을 선정했다. 이 다큐는 제주 4.3 특별법 개정 후 학살당한 가족의 명예 회복을 위해 재판정에 선 유족들의 이야기를 담았다.

한국영상기자협회는 심사평으로 “(다큐는) 국가 공권력의 무자비함을 알렸고, 잔잔한 영상과 인터뷰로 잘 구성하였다”고 적었다. 그리고 이 말을 덧붙였다. “아쉬운 점이라면 생성형 AI를 이용한 가상 이미지가 그 당시 역사적 고증이나 지형, 인물들에 대해 사실적이지 못해서, 작품의 리얼리티를 해쳤다는 평도 있었다.”

제주 4.3 사건의 유족 송병기 씨의 기억을 바탕으로 AI가 만든 이미지들. 실제 역사적 사실을 철저히 고증한 이미지는 아니다. 제주 MBC 4.3 특별기획 ‘남겨진 아이들’ 화면 갈무리
제주 4.3 사건의 유족 송병기 씨의 기억을 바탕으로 AI가 만든 이미지들. 실제 역사적 사실을 철저히 고증한 이미지는 아니다. 제주 MBC 4.3 특별기획 ‘남겨진 아이들’ 화면 갈무리

다큐 ‘4.3특집 남겨진 아이들’은 심사위원들에게 ‘인공지능이 생성한 이미지로 역사적 사실을 재현해도 되는가’라는 윤리적 고민을 안겨주었다. 총 5부로 구성된 다큐 중 4부 ‘목격자’는 4.3 유족 송병기(85)가 학살 상황에 대한 기억을 술회하는 인터뷰 형식으로 전개된다. 송 씨는 인터뷰에서 당시 군인들이 찾아와 집에 불을 질렀고, 가족들은 산으로 도망쳤고, 산에서는 나무와 억새를 덮어서 임시로 지은 집에서 살았다는 등의 기억을 이야기한다. 제작진은 인터뷰 영상 중간에 그 내용을 묘사하는 것처럼 보이는 이미지를 넣었다. 이는 AI가 생성한 이미지로, 당시 상황을 고증한 이미지는 아니다. 제작진은 영상에 ‘AI 가상 이미지’라는 자막을 붙여서 출처를 밝혔다.

나준영 한국영상기자협회장은 <단비뉴스>와의 전화 인터뷰에서 심사 뒷이야기를 말했다. “다큐에서 활용된 이미지 속 풍경은 제주도가 아니라 동남아시아에 가까운 것 같았다. 지금은 큰 문제가 없을지 모르나, 다큐멘터리는 100년 후 지금을 돌아보는 역사적인 자료가 될 수 있다. AI로 생성한 이미지가 후대 사람들에게 왜곡된 사실을 전달할 수 있다는 점에서 심사 당시 우려가 나왔다. 좋은 작품이었지만 우려점도 심사평에 함께 적었다”고 말했다.

AI 가이드라인 정립 나선 해외 언론계

언론사가 AI를 부적절하게 사용해서 논란이 되었던 사례는 해외에도 있다. 미국의 유명 IT 매체 <씨넷>(CNET)은 지난해 11월 생성형 AI가 작성하고 인간 편집자가 수정한 기사를 온라인에 게재하기 시작했다. 주로 금융에 대한 정보성 기사들이었다. 미국의 다른 IT 매체 <퓨처리즘>(FUTURISM)은 지난 1월 16일 AI가 사용된 씨넷의 일부 기사에서 잘못된 정보가 발견됐다고 보도했다. 씨넷은 당시까지 AI를 활용해서 총 77개의 기사를 작성했는데, 그중 사실 오류 또는 저작권 침해 등의 문제가 무려 41개의 기사에서 발견됐다. 심지어 씨넷은 기사에 AI가 활용됐다는 사실을 명시적으로 밝히지도 않았다.

분별없는 AI 사용이 저널리즘에 대한 신뢰를 무너뜨릴 수 있다는 우려가 제기되며, 해외 언론사들은 올해 들어 AI의 윤리적인 사용 기준을 담은 가이드라인을 속속 발표하고 있다. 올해 3월 미국의 IT 전문지 <와이어드>(WIRED)는 전 세계 언론사 중 최초로 ‘AI 윤리 가이드라인’을 발표했다. 이후 로이터와 가디언, AP 등 해외 유수의 언론사들도 동참했다.

영국 언론사 가디언이 지난 6월 16일 발표한 AI 윤리 가이드라인. 가디언 누리집 갈무리
영국 언론사 가디언이 지난 6월 16일 발표한 AI 윤리 가이드라인. 가디언 누리집 갈무리

언론사들이 발표한 가이드라인을 종합해 살펴보면 크게 두 가지 흐름이 보인다. 첫째, AI가 생성한 콘텐츠를 인간이 전적으로 책임지고 감독해서 내용의 정확성을 보장해야 한다는 것이다. 영국의 뉴스 통신사 <로이터>(Reuter)는 5월 14일 “로이터 기자와 편집자는 AI를 활용해 제작할 수 있는 모든 콘텐츠의 승인에 전적으로 참여하고 책임을 져야 한다”(Reuters reporters and editors will be fully involved in – and responsible for – greenlighting any content we may produce that relies on AI)는 지침을 발표했다. 영국 일간지 <가디언>도 6월 16일 “AI가 생성한 중요한 내용을 보도에 포함하고자 하는 경우, 구체적인 이익에 대한 명확한 증거, 사람의 감독, 선임 편집자의 명확한 허가가 있을 때만 그렇게 할 것”(If we wish to include significant elements generated by AI in a piece of work, we will only do so with clear evidence of a specific benefit, human oversight, and the explicit permission of a senior editor)이라고 약속했다.

둘째, 언론사들은 콘텐츠에 AI가 활용된 사실을 투명하게 공개하겠다고 약속했다. 노르웨이의 타블로이드지 <VG>는 4월 12일 “AI로 생성된 콘텐츠는 이해할 수 있는 방식으로 명확하게 (출처가 담긴) 표시해야 한다”고 밝혔다. 독일 뉴스 통신사 <DPA>는 4월 3일 “콘텐츠가 AI에 의해 독점적으로 생성되는 경우, 이를 투명하고 설명 가능하게 만든다”는 지침을 발표했다.

AI가 생성한 사진과 영상에 대한 사용 지침을 밝힌 언론사도 있었다. 미국 통신사 <AP>는 8월 16일 “우리는 현실에 대한 거짓 묘사로 의심되거나 입증된 AI 생성 이미지를 사용하지 않을 것이다. 그러나 AI로 생성된 이미지가 뉴스의 주제라면, 사진 설명에 명확하게 표시하는 한 사용할 수 있다”(We will refrain from transmitting any AI-generated images that are suspected or proven to be false depictions of reality. However, if an AI-generated illustration or work of art is the subject of a news story, it may be used as long as it clearly labeled as such in the caption)고 밝혔다. 이 가이드라인에 따르면 제주 MBC의 ‘남겨진 아이들’의 재현 이미지는 사용될 수 없었을 것이다.

미국 통신사 AP가 지난 8월 16일 발표한 AI 윤리 가이드라인. AP 누리집 갈무리
미국 통신사 AP가 지난 8월 16일 발표한 AI 윤리 가이드라인. AP 누리집 갈무리

국제 언론 기관들도 AI 윤리 가이드라인 정립에 나서고 있다. 지난달 10일 <국경없는기자회>(RSF)는 16개 국제 언론 기관들과 함께 파리 평화 포럼에서 ‘AI와 저널리즘에 관한 파리 헌장’(The Paris Charter on AI and Journalism)을 발표했다. 헌장은 서문과 10개의 원칙으로 구성됐다.

<AI와 저널리즘에 관한 파리 헌장>

1. 언론 매체와 언론인이 기술을 사용하는 방식은 언론 윤리를 따라야 한다. (Journalism ethics guide the way media outlets and journalists use technology)

2. 언론 매체는 사람의 판단을 우선시한다. (Media outlets prioritise human agency)

3. 언론이 사용하는 AI 기술은 독립적인 사전 평가를 거쳐야 한다. (AI systems used in journalism undergo prior, independent evaluation)

4. 언론 매체는 보도하는 모든 콘텐츠에 대해 책임진다. (Media outlets are always accountable for the content they publish)

5. 언론 매체는 AI 기술을 사용할 때 투명성을 지켜야 한다. (Media outlets maintain transparency in their use of AI systems)

6. 언론 매체는 콘텐츠의 출처를 밝히고, 출처를 찾아낼 수 있게끔 해야 한다. (Media outlets ensure content origin and traceability)

7. 언론은 진짜와 생성된 콘텐츠 사이를 명확하게 구분해야 한다. (Journalism draws a clear line between authentic and synthetic content)

8. AI를 이용한 콘텐츠 개인화와 추천 서비스는 다양성과 진실성을 유지해야 한다. (AI-driven content personalisation and recommendation upholds diversity and the integrity of information)

9. 언론인, 언론 매체와 언론을 지원하는 단체는 AI 거버넌스에 참여해야 한다. (Journalists, media outlets and journalism support groups engage in the governance of AI)

10. 언론은 AI 단체과 협력할 때 스스로의 윤리적, 경제적 기반을 지켜야 한다. (Journalism upholds its ethical and economic foundation in engagements with AI organisations)

AI 시대 대응 늦은 국내 언론

이런 국제적 움직임과 달리 국내 언론계는 아직 AI 사용에 관한 가이드라인이 전무한 상황이다. <단비뉴스>는 국내의 10개 주요 일간지(조선일보, 중앙일보, 동아일보, 한국일보, 한겨레, 경향신문, 세계일보, 문화일보, 국민일보, 서울신문)에 AI 사용에 관한 윤리 가이드라인이 있는지 확인했다. 하지만 AI 사용 지침을 담은 윤리 가이드라인을 가진 곳은 없었다.

한겨레 이희욱 미디어랩부장은 <단비뉴스>와의 서면 인터뷰에서 “아직까지 본격적인 가이드라인 준비 작업에 들어가지는 못했다. 다만 글로벌 언론계의 흐름을 주시하며 미디어전략실을 중심으로 자체 (윤리 또는 취재) 가이드라인을 마련하는 작업을 검토 중에 있다”고 밝혔다. 세계일보 디지털뉴스부 방창원 부장은 <단비뉴스>와의 전화 인터뷰에서 “아직 회사 차원에서 AI 가이드라인을 세운 건 없지만 고민은 하고 있다. 향후 6개월 내에는 가이드라인이 필요하지 않을까 생각한다”고 말했다.

국내 몇몇 단체들은 AI 윤리 가이드라인을 준비하고 있다. 인터넷 신문들의 자율규제기구인 인터넷신문윤리위원회는 올해 말까지 AI 윤리 가이드라인 초안을 만들고, 내년 상반기에 가이드라인을 정식으로 발표할 예정이다. 인터넷신문윤리위원회 조수민 연구원은 <단비뉴스>와의 전화 인터뷰에서 “AI 사용은 앞으로 언론계에서 계속 화제가 될 사안이기 때문에, 자율규제기구로서 인터넷신문윤리위원회가 선제적으로 대응책을 마련하려 한다”고 말했다.

한국영상기자협회도 내년까지 영상보도 가이드라인을 개정할 계획이다. 지난 2019년 영상보도가이드라인을 처음 발표했던 영상기자협회 나준영 회장은 “AI 사용 기준 등의 내용을 추가한 영상 보도 가이드라인을 내년에 발표할 계획”이라고 말했다.

관건은 독자들의 신뢰 확보

전문가들은 향후 국내 언론사들이 AI 윤리 가이드라인 만든다면 ‘정확성’과 ‘투명성’에 관한 내용이 포함되어야 한다고 말했다. 오태연 서울과학종합대학원 AI 빅데이터 부주임 교수는 <단비뉴스>와의 전화 인터뷰에서 “AI 윤리 가이드라인에는 AI를 사용한 기자들이 사실에 대한 검수를 철저하게 하는 것이 중요하고, AI를 활용했다는 사실을 명시적으로 표시해야 한다는 내용이 반드시 포함되어야 한다”고 말했다.

심영섭 경희사이버대 미디어영상홍보학과 겸임교수는 정확성과 투명성 외에도 언론사에 한 가지를 더 요구했다. 심 교수는 <단비뉴스>와의 인터뷰에서 “언론사는 외부에 AI 활용에 대한 ‘투명성 보고서’를 별도로 공개해 인공지능을 활용한 기사의 신뢰성을 담보할 필요가 있다. 투명성 보고서에는 만약 AI로 인해 오류가 발생했다면 그 오류를 어떻게 수정했고, 후속 처리는 어떻게 했는지를 담아야 한다. 또 AI를 활용하면서 개인정보 보호와 기밀 보호 같은 사회적 책무도 수행하고 있다는 사실을 밝혀야 한다. AI 시대 저널리즘의 관건은 독자들이 AI를 활용한 보도를 신뢰할 수 있게끔 언론사가 얼마나 노력하는지에 달려 있다”고 말했다.

지난 5일 언론인권센터에서 심영섭 경희사이버대 미디어영상홍보학과 겸임교수가 AI 윤리 가이드라인에 대해 기자에게 설명하고 있다. 조승연 기자
지난 5일 언론인권센터에서 심영섭 경희사이버대 미디어영상홍보학과 겸임교수가 AI 윤리 가이드라인에 대해 기자에게 설명하고 있다. 조승연 기자

나준영 회장은 언론사들이 AI의 윤리적 사용 가이드라인을 미리 세우지 않으면, 향후 언론에 대한 대중의 불신이 높아질 것이라고 우려했다. 나 회장은 “AI가 따라가기 어려울 만큼 빠르게 발전하는데, 문제가 생기면 그제야 대응하는 사후 약방문식으로 AI를 다루면 언론에 대한 대중의 불신이 깊어질 것이다. 인간과 인간의 커뮤니케이션을 담당하는 것이 언론의 역할이다. 언론사가 선제적으로 AI의 사용 기준을 정해야, AI가 중심이 될 미래 커뮤니케이션 환경에서 언론의 역할이 남아있을 수 있다”고 말했다.

관련기사

저작권자 © 단비뉴스 무단전재 및 재배포 금지