뉴스

윤장렬 미디어칼럼 <10> AI 저널리즘의 가이드라인

입력 : 2024-10-16 04:22:20
수정 : 0000-00-00 00:00:00

윤장렬 미디어칼럼 <10> AI 저널리즘의 가이드라인

 

윤장렬(독일 베를린자유대학교 언론학박사)

 

▲위 포스터는 chatGPT로 만든 것입니다

 

202211, 미국의 오픈AI가 챗GPT-3을 공개했습니다. 최근에는 4 Omni 버전이 출시되면서, 텍스트는 물론 음성과 이미지 인식이 가능해졌습니다. 그래서 챗GPT는 이제 방대한 데이터를 기반으로 사람처럼 실시간 대화할 수 있습니다. 이미 전 세계 언론사들은 다양한 방식과 전략으로 챗GPT 기술을 활용해 뉴스 콘텐츠를 생산, 서비스하고 있습니다.

 

그런데 AI, 즉 인공지능이라는 용어는 상황에 따라 매우 다른 의미가 있을 수 있습니다. 예를 들면, AI는 지능적인 행동과 유사한 컴퓨터의 기능 집합으로 이해될 수 있습니다. 이때 지능형이 무엇을 의미하는지, 어떤 기술이 사용되는지는 명시되어 있지 않습니다. 따라서 독일의 바이에른 공영방송(BR)에서는 AI를 특정 작업을 수행하기 위해 훈련이 필요한 컴퓨터 시스템으로 그 정의를 제한합니다.

 

저널리즘 분야에서 AI 기술을 활용하는 것은 의견과 여론형성, 나아가 국가와 사회에 큰 영향을 미칠 수 있습니다. , 언론인의 업무에도 심각한 영향을 미칠 것입니다. 따라서 AI를 저널리즘에 활용하려면 자유민주주의와 저널리즘 작업을 위태롭게 하지 않도록 적절한 가이드라인이 필요합니다. 이러한 지침은 마치 도로 위의 자율주행차로부터 사람들을 보호해야 하는 것처럼, 저널리즘에서 인공지능의 무분별한 사용을 막아야 합니다.

 

이런 점에서 독일 언론사들이 논의, 제안하고 있는 AI 저널리즘에 대한 지침, 즉 가이드라인의 주요 내용을 살펴보면 다음과 같습니다.

 

하나, 저널리즘에 인공지능을 활용하려면 적절한 가이드라인이 필요한데, 무엇보다 투명성의 의무가 강조된다. 여기서 투명성의 의무는 다시 두 가지 측면에서 확인된다: 첫째, AI가 뉴스 콘텐츠를 생산할 때, 생산자와 이용자는 이를 인식할 필요가 있다. 둘째, AI가 어떤 데이터 소스를 사용했는지, 어떤 자료를 사용해 훈련했는지 분명해야 할 필요가 있다.

 

, 작성된 콘텐츠가 AI 교육 목적으로 사용될 경우, 원 작성자와 소통하고 보상을 할 수 있도록 보장되어야 한다.

 

, 저널리즘 분야에서 인공지능의 활용은 품질, 균형, 차별 금지, 데이터 및 출처 보호, 그리고 저작권 및 보안 측면에서 최소한의 기준을 충족하는 사회적으로 인증된 AI 시스템이 사용되어야 한다.

 

, 인공지능의 활용은 무엇보다 자체적으로 제어가 가능한 기술을 저널리즘 분야에 활용하고, EU 기반의 자체적인 인프라를 보유하는 것이 바람직하다.

 

다섯, 신속하고 단호한 규제가 AI 저널리즘 분야에 필요하다. 실례로 디지털 단일시장 저작권지침(Digital Single Market Copyright Directive)이 제정되기까지 10년 이상이 걸렸고, 그 이후 국내법으로 전환되는데 별도의 시간이 소요되었다. 따라서 AI를 규제하기 위해서는 시기적절한 규제 정책이 필요하다.

 

이처럼 독일 언론사들은 AI 기술을 활용하기 위해 나름대로 인공지능에 관한 개념을 정의하고, 가이드라인을 설정하고 있습니다. 물론 AI 지침에 관한 내용이 추상적이고, 이상적이기 때문에 기술적인 실천으로 확대, 적용할 수 있을지 회의적인 비판도 있습니다. 따라서 단순한 원칙들이 나열되고 있는 AI 지침안을 어떻게 강제할 수 있는지, 또 다른 논의가 이어지고 있습니다. 왜냐하면, 급변하는 AI 저널리즘 분야에서 다양한 이점과 문제들이 대두되는 상황에서 언론사의 지침서만으로는 부족하기 때문입니다. 이런 점에서 AI 기술이 저널리즘과 민주주의를 발전시킬지 아니면 오히려 파괴할지 미디어 정책과 규제 법안들이 요구되고 있습니다.

 

만약 우리가 AI 기술을 사용해 뉴스 콘텐츠를 생산, 서비스한다면, 우리는 어떤 가이드라인을 갖고 AI 기술을 활용하고 있는지 자문해 봅시다. 혹은 우리가 인공지능이 생산한 뉴스 콘텐츠를 사용하고 있다면, 우리는 어떤 이점과 문제들에 노출되어 있는지 확인해 봅니다. 실제로 가짜 뉴스와 딥페이크를 생산하는 기술이 더욱 보편화되었고, 합성 콘텐츠와 인공지능을 통한 생산물을 구별하는 것이 더 어려워지고 있습니다. 디지털 미디어 환경에서 넘쳐나는 가짜 뉴스와 이미지, 음성, 영상은 허위정보로 이어질 수 있고, 반대로 진실 보도와 허위보도를 구별하기 어렵기 때문에 언론에 대한 보편적 신뢰가 전반적으로 상실될 수 있습니다.

 

한편 AI 기술은 점점 더 개인화된 서비스를 극대화하기 때문에, 미디어 이용자는 필터버블, 즉 선별적 정보만을 접할 수 있습니다. 알고리즘으로 고도화되는 개인화는 일방적인 뉴스의 왜곡된 의견뿐만 아니라 사용자 자신의 의견도 왜곡할 수 있습니다. 언론의 보도가 일방적으로 이뤄진다면, 해당 주제에 대한 종합적인 인식이 불가능해질 수 있습니다. 따라서 뉴스 이용자는 자신의 의견이 가장 합리적이고, 유일하게 옳은 의견이라고 생각할 수 있습니다. 이는 공론장이 붕괴된 상태이며, 건강한 견해에서 극단적인 견해로 바뀌는 방식입니다. 그 결과 양극화된 사회적 분열과 증오가 심화할 여지가 매우 큽니다.

 

 

 

신문협동조합「파주에서」 모든 컨텐츠를 무단복제 사용할 경우에는 저작권법에 의해 제재를 받을 수 있습니다.