미국의 작은 인공지능 스타트업 '오픈 AI'가 세상을 뒤집었다. 이들이 제작한 언어 생성형 인공지능(AI) '챗GPT'는 한 달 간 전세계 1억명 이상이 이용하는 등 성과를 보였다. 해외 최대 IT 기업인 구글과 마이크로소프트도 챗GPT의 성과에 놀라며 대화형 AI 개발을 서두르고 있다. 국내 기업도 예외는 아니다. 뷰어스가 엔씨소프트와 넥슨, 넷마블 등 게임업계를 비롯한 국내 IT 업계의 AI 기술 활용 비책을 알아봤다. -편집자주 스캐터랩이 출시한 챗봇 '이루다'. (사진=이루다SNS) "(레즈비언은) 소름끼친다고 해야하나 거부감들고 그래." "나 예전에 지하철에서 군인봤었거든? 근데 진짜 꼴뵈기 싫었어." 지난 2020년 출시한 AI 챗봇 '이루다'는 동성애 혐오 표현 논란으로 지탄을 받았다. 이로 인해 'AI 윤리'가 대두됐다. AI 딥페이크를 비롯한 저작권 문제 등 범죄와도 연루되는 상황에서 AI 기술 발달에 따른 부작용을 걱정하는 시선이 적지 않다. AI의 저작권 침해도 문제다. 개발자가 AI를 학습시키는 과정에서 타인의 창작물을 허락없이 교재로 사용해도 되냐는 거다. AI가 특정 창작물을 학습하고 이를 따라그린다면 원작자와 저작권 관련 분쟁이 도마 위에 오를 수 있다. 지난해 11월에는 마이크로소프트의 소스코드 생성 AI ‘깃허브 코파일럿’이 프로그래머들의 집단소송에 휘말리기도 했다. 또 지난달에는 미드저니, 스태이블 디퓨전 등 그림 생성 AI에 그림 창작자들의 집단소송이 제기됐다. IT 업계도 윤리를 공부하고 있다. 최근 '챗GPT' 열풍에서도 AI 윤리는 간과해서는 안될 부분이라는데 업계 공감대는 형성돼 있다. '윤리 리스크'를 최소화하기 위한 움직임으로 AI 윤리 준칙을 수립하고 범죄를 방지할 수 있는 기술을 개발하는 데 매진하고 있다. 네이버 AI 윤리 준칙. (자료=네이버 홈페이지 갈무리) ■ 이루다보다 빨랐던 네이버·카카오, 윤리 준칙 가이드라인 수립…다양성 존중 담았다 네이버는 AI 개발과 이용에 있어 AI 윤리 준칙을 준수하기 위한 가이드라인을 제시하고 있다. 지난 2021년 ▲사람을 위한 AI 개발 ▲다양성의 존중 ▲합리적인 설명과 편리성의 조화 ▲안전을 고려한 서비스설계 ▲프라이버시 보호와 정보 보안 등을 내세웠다. 이 같은 윤리 준칙을 '지식인터랙티브' 등 신규 서비스에 적용하고 있다. 네이버의 이 같은 윤리 준칙 수립은 ‘이루다 사태’ 이전부터 준비됐다. 서울대 AI 정책 이니셔티브(이하 SAPI)와 함께 2018년부터 협업을 시작했다. 네이버와 SAPI는 AI를 누구나 쉽고 편리하게 활용할 수 있는 일상의 도구로 만들겠다는 목표 아래 인간중심의 가치를 최우선으로 하겠다는 목표를 AI 윤리 핵심으로 삼았다. 지난해 12월 30일에는 네이버와 SPAI가 함께 사회적‧윤리적 고민의 과정과 결과를 공유하는 ‘네이버-SAPI AI 리포트’를 공개하기도 했다. 네이버는 ‘중‧장년 1인 가구를 위한 클로바 케어콜’을 예시로 인간 중심의 가치를 바탕으로 한 서비스 개발 사례를 소개했다. 당시 네이버 아젠다 리서치(Agenda Research) 박우철 리더는 “서비스 현장에서의 사례를 네이버 AI 윤리 준칙의 관점으로 살펴봄으로써 AI 윤리 준칙을 구체화하고 실천하는 데 있어 많은 도움이 될 것”이라며 “앞으로도 AI 정책 분야에서 이뤄지는 네이버의 다양한 시도와 고민의 결과를 사회에 공유할 수 있도록 노력하겠다”고 강조하기도 했다. 네이버 관계자는 “AI윤리 준칙 사안을 논의하는 사내 커뮤니케이션 채널을 운영하고 있다”며 “서비스 출시 과정에서 AI 정책에 대해 보다 적극적으로 논의할 수 있는 AI 윤리 자문 프로세스도 갖추는 등 체계적으로 AI 윤리 고민을 이어가고 있다”고 말했다. 카카오는 카카오브레인을 중심으로 한 한국어 특화 AI언어모델 '코(Ko)GPT'를 선보인다. 카카오는 앞서 지난 2018년 국내 기업 최초로 '인공지능 알고리즘 윤리 헌장'을 제정하면서 일찍이 AI 윤리 준칙 적용에 나섰다. 카카오 AI 알고리즘 윤리헌장은 알고리즘 기본 원칙으로 카카오 서비스를 직간접적으로 이용하는 사람들에게 편익을 제공하고 행복 기여에 있다고 명시했다. 또 알고리즘 개발과 관리에서 사회 윤리 원칙에 부합하겠다고 덧붙였다. 이어 ▲차별에 대한 경계 ▲사회 윤리에 근거한 학습 데이터 운영 ▲알고리즘의 독립성 관리 ▲알고리즘에 대한 성실한 설명 ▲기술 포용성 ▲아동과 청소년 보호 ▲프라이버시 보호 등을 내세웠다. 지난해 7월에는 기술윤리위원회를 구성하면서 카카오의 AI 윤리 규정 준수 여부와 알고리즘 투명성 강화 등을 수행하고 있다. 또 카카오는 '인권과 기술윤리팀'을 운영하며 기술 발달에 따른 윤리적 방향성을 제시하고 있다. 엔씨소프트 AI 윤리. (자료=엔씨소프트 ESG 보고서 2022) ■ 엔씨소프트가 선도하는 게임업계 AI 윤리 준칙…갈 길은 멀다 게임업계는 생성형 AI를 비롯해 폭넓게 AI를 활용하고 있으나 AI윤리와 관련한 구체적인 가이드라인을 제시하는 회사는 찾아보기 힘들다. 이 가운데 엔씨소프트가 ESG(환경·사회·지배구조)보고서를 통해 꾸준히 AI 윤리의 중요성을 강조하고 있다. 엔씨소프트는 지난해 6월 발간한 지속가능경영보고서 'ESG 플레이북 2021'에서도 '디지털 책임'이라는 항목을 통해 AI 윤리를 강조하고 있다. AI기술의 사회적 영향력을 고려한 기술 개발을 이어 가겠다는 게 엔씨소프트의 포부다. 엔씨소프트는 AI윤리 핵심 가치로 ▲데이터 보호를 중심하는 AI ▲편향되지 않은 AI ▲투명성을 추구하는 AI 등 세 가지를 제시했다. 먼저 데이터 보호 중심 AI 규칙 준수를 위해 엔씨소프트는 데이터 특성에 따른 처리 방법 및 데이터 가명처리, 개인정보 유출 방지 및 개인정보 취급 유의사항 등에 대한 교육을 정기적으로 진행하고 있다. 또 AI R&D 조직은 데이터 활용 내부 절차에서 나아가 개인정보 비식별화 정책을 수립하고 프로세스 개선을 지속적으로 노력하고 있다. 끝으로 AI 행동 패턴 분석 시 이용자의 행동 패턴 데이터를 추출하지만 사용자를 식별할 수 있는 로그가 원천적으로 남지 않도록 처리하는 과정을 거치고 있다. 편향되지 않은 AI 개발을 위해서는 비윤리적 표현 데이터센터를 사전에 구축하고 비윤리적 발화생성 방지시스템을 갖췄다. 끝으로 AI 투명성을 위해 AI 모델 작동 원리와 AI 대화 데이터셋 등을 공개하고 있다. 디지털 휴먼 사업 전개를 위해 지난해 4월 이제희 서울대컴퓨터공학부 교수를 최고 연구책임자(CRO)로 영입하고 애니메이션 및 AI 연구개발(R&D) 조직을 맡겼다. 이와 함께 사회 전반에 AI 윤리 확산을 위해 AI 프레임워크(Framework)와 AI대화 데이터셋공동연구, AI 윤리 연구 후원을 진행하고 있다. 엔씨소프트 관계자는 "AI 윤리 관련해서는 많이 준비를 하고 있다"며 "ESG보고서를 통해서도 AI 윤리를 다루고 있으며 디지털 기업으로 가져야 할 윤리의식과 책임 의식이라는 큰 틀안에서 강조하고 있다"고 말했다. 이어 "특히 윤송이 CSO가 AI 윤리 관련한 대담을 이어가고 있으며 AI 윤리 프레임워크라는 프로그램을 통해 학계와 끊임없이 소통하고 있다"고 덧붙였다. 엔씨소프트에 비해 부족하지만 넥슨과 넷마블도 AI 윤리 준수를 위한 걸음마를 뗐다. 넷마블은 게임 이용자들의 플레이 만족도와 게임 개발 효율성을 동시에 높이기 위해 지난 2014년부터 다양한 AI(인공지능) 기술을 연구해왔다. 넷마블의 AI 기술 연구 궁극적인 목표는 '사람과 함께 노는 지능적인 AI'를 만드는 것이다. AI 연구에 있어서 인간 중심을 지향하고 있다는 의미로 풀이된다. 넷마블은 AI윤리 관련해서도 준수하기 위해 데이터 보호 차원에서의 노력을 이어간다는 방침이다. 넷마블 관계자는 "넷마블은 사내 데이터보호 규정 및 최신 규제 동향을 준수해 기술을 개발하고 적용하기 위해 노력 중"이라고 말했다. 생성 AI를 통해 AI NPC 서비스 도입 등을 검토하고 있는 넥슨도 AI 윤리에 대한 논의를 진행하고 있다. 넥슨 관계자는 “AI에게 편향 없는 알고리즘이 필터링하는 기술을 적용해 알고리즘 결과가 특정 가치에 편향되거나 사회적인 차별을 강화하지 않도록 노력하고 있다”며 “프라이버시나 아동 및 청소년 부적절한 환경에서 보호될 수 있는 서비스 설계를 기반으로 운영하고 있다”고 말했다. 최근 AI 바우처 사업에 뛰어든 한빛소프트도 AI 윤리에 대한 사회적 논의에 맞춰간다는 계획이다. 한빛소프트는 ▲음성인식·음성합성·음성챗봇·자언어이해 솔루션 ▲AI 음성 아바타 생성 솔루션 ▲영상 속 객체 검출·동작 분석·문자 인식 솔루션 등의 인공지능 기술 보유를 기반으로 지난 1일 '인공지능 바우처사업' 공급기업으로 등록됐다. 이와 함께 AI로 인해 발생할 수 있는 저작권 문제 해결에도 나선다. ‘웹어셈블리 기반 블록체인 플랫폼을 이용한 디지털 콘텐츠의 위변조 판별 시스템 및 이를 이용한 디지털 콘텐츠의 위변조 판별 방법'에 대한 미국 특허를 출원했다. 국내 특허 등록은 이미 완료한 상태다. 한빛소프트는 "자사의 발명기술을 활용하면 영상, 이미지, 음성, 텍스트 등 다양한 유형의 딥 페이크를 효과적으로 방지할 수 있다"고 강조했다. 한빛소프트는 향후로도 AI 윤리에 대한 사회적 논의를 들여다보며 이에 맞춘 AI 개발을 이어간다는 방침이다. 한빛소프트 관계자는 "AI 학습 과정에서 발생할 수 있는 비속어 문제나 차별과 혐오 표현 등에 대한 거름망이 필요하다는 건 개발팀 내부에서도 인지하고 있다"며 "다만 AI 윤리에 대한 학계 논의, 사회적 합의 등 보편적인 가이드라인이 우선 정해질 필요가 있고 이를 따를 것"이라고 말했다. 한 게임사 관계자는 "국내 게임사들은 비속어 필터링 등 혐오와 차별을 조장하는 표현에 대해 방지하고 있으며 이를 통해 축적된 데이터를 활용하는 방안도 있겠다"며 "AI 윤리에 대한 사회적 합의만 충분히 이뤄진다면 제한적인 학습은 기술적으로 크게 어려운 부분이 아닌만큼 AI 윤리 리스크에 충분히 대응이 가능할 것"이라고 말했다.

[AI와 동행] ③윤리 공부하는 IT 업계…“특정가치 편향없이 차별 금지”

게임 업계 AI 윤리 논의 선구자 엔씨소프트, ESG 보고서에도 디지털 책임 명시
"논란이 될 수 있는 혐오 표현 등 거르는 기술 도입 어렵지 않아…사회적 합의 우선"

정지수 기자 승인 2023.02.16 15:53 의견 0

미국의 작은 인공지능 스타트업 '오픈 AI'가 세상을 뒤집었다. 이들이 제작한 언어 생성형 인공지능(AI) '챗GPT'는 한 달 간 전세계 1억명 이상이 이용하는 등 성과를 보였다. 해외 최대 IT 기업인 구글과 마이크로소프트도 챗GPT의 성과에 놀라며 대화형 AI 개발을 서두르고 있다. 국내 기업도 예외는 아니다. 뷰어스가 엔씨소프트와 넥슨, 넷마블 등 게임업계를 비롯한 국내 IT 업계의 AI 기술 활용 비책을 알아봤다. -편집자주

스캐터랩이 출시한 챗봇 '이루다'. (사진=이루다SNS)

"(레즈비언은) 소름끼친다고 해야하나 거부감들고 그래." "나 예전에 지하철에서 군인봤었거든? 근데 진짜 꼴뵈기 싫었어."

지난 2020년 출시한 AI 챗봇 '이루다'는 동성애 혐오 표현 논란으로 지탄을 받았다. 이로 인해 'AI 윤리'가 대두됐다. AI 딥페이크를 비롯한 저작권 문제 등 범죄와도 연루되는 상황에서 AI 기술 발달에 따른 부작용을 걱정하는 시선이 적지 않다.

AI의 저작권 침해도 문제다. 개발자가 AI를 학습시키는 과정에서 타인의 창작물을 허락없이 교재로 사용해도 되냐는 거다. AI가 특정 창작물을 학습하고 이를 따라그린다면 원작자와 저작권 관련 분쟁이 도마 위에 오를 수 있다. 지난해 11월에는 마이크로소프트의 소스코드 생성 AI ‘깃허브 코파일럿’이 프로그래머들의 집단소송에 휘말리기도 했다. 또 지난달에는 미드저니, 스태이블 디퓨전 등 그림 생성 AI에 그림 창작자들의 집단소송이 제기됐다.

IT 업계도 윤리를 공부하고 있다. 최근 '챗GPT' 열풍에서도 AI 윤리는 간과해서는 안될 부분이라는데 업계 공감대는 형성돼 있다. '윤리 리스크'를 최소화하기 위한 움직임으로 AI 윤리 준칙을 수립하고 범죄를 방지할 수 있는 기술을 개발하는 데 매진하고 있다.

네이버 AI 윤리 준칙. (자료=네이버 홈페이지 갈무리)

■ 이루다보다 빨랐던 네이버·카카오, 윤리 준칙 가이드라인 수립…다양성 존중 담았다

네이버는 AI 개발과 이용에 있어 AI 윤리 준칙을 준수하기 위한 가이드라인을 제시하고 있다. 지난 2021년 ▲사람을 위한 AI 개발 ▲다양성의 존중 ▲합리적인 설명과 편리성의 조화 ▲안전을 고려한 서비스설계 ▲프라이버시 보호와 정보 보안 등을 내세웠다. 이 같은 윤리 준칙을 '지식인터랙티브' 등 신규 서비스에 적용하고 있다.

네이버의 이 같은 윤리 준칙 수립은 ‘이루다 사태’ 이전부터 준비됐다. 서울대 AI 정책 이니셔티브(이하 SAPI)와 함께 2018년부터 협업을 시작했다. 네이버와 SAPI는 AI를 누구나 쉽고 편리하게 활용할 수 있는 일상의 도구로 만들겠다는 목표 아래 인간중심의 가치를 최우선으로 하겠다는 목표를 AI 윤리 핵심으로 삼았다.

지난해 12월 30일에는 네이버와 SPAI가 함께 사회적‧윤리적 고민의 과정과 결과를 공유하는 ‘네이버-SAPI AI 리포트’를 공개하기도 했다. 네이버는 ‘중‧장년 1인 가구를 위한 클로바 케어콜’을 예시로 인간 중심의 가치를 바탕으로 한 서비스 개발 사례를 소개했다.

당시 네이버 아젠다 리서치(Agenda Research) 박우철 리더는 “서비스 현장에서의 사례를 네이버 AI 윤리 준칙의 관점으로 살펴봄으로써 AI 윤리 준칙을 구체화하고 실천하는 데 있어 많은 도움이 될 것”이라며 “앞으로도 AI 정책 분야에서 이뤄지는 네이버의 다양한 시도와 고민의 결과를 사회에 공유할 수 있도록 노력하겠다”고 강조하기도 했다.

네이버 관계자는 “AI윤리 준칙 사안을 논의하는 사내 커뮤니케이션 채널을 운영하고 있다”며 “서비스 출시 과정에서 AI 정책에 대해 보다 적극적으로 논의할 수 있는 AI 윤리 자문 프로세스도 갖추는 등 체계적으로 AI 윤리 고민을 이어가고 있다”고 말했다.

카카오는 카카오브레인을 중심으로 한 한국어 특화 AI언어모델 '코(Ko)GPT'를 선보인다. 카카오는 앞서 지난 2018년 국내 기업 최초로 '인공지능 알고리즘 윤리 헌장'을 제정하면서 일찍이 AI 윤리 준칙 적용에 나섰다.

카카오 AI 알고리즘 윤리헌장은 알고리즘 기본 원칙으로 카카오 서비스를 직간접적으로 이용하는 사람들에게 편익을 제공하고 행복 기여에 있다고 명시했다. 또 알고리즘 개발과 관리에서 사회 윤리 원칙에 부합하겠다고 덧붙였다. 이어 ▲차별에 대한 경계 ▲사회 윤리에 근거한 학습 데이터 운영 ▲알고리즘의 독립성 관리 ▲알고리즘에 대한 성실한 설명 ▲기술 포용성 ▲아동과 청소년 보호 ▲프라이버시 보호 등을 내세웠다.

지난해 7월에는 기술윤리위원회를 구성하면서 카카오의 AI 윤리 규정 준수 여부와 알고리즘 투명성 강화 등을 수행하고 있다. 또 카카오는 '인권과 기술윤리팀'을 운영하며 기술 발달에 따른 윤리적 방향성을 제시하고 있다.

엔씨소프트 AI 윤리. (자료=엔씨소프트 ESG 보고서 2022)

■ 엔씨소프트가 선도하는 게임업계 AI 윤리 준칙…갈 길은 멀다

게임업계는 생성형 AI를 비롯해 폭넓게 AI를 활용하고 있으나 AI윤리와 관련한 구체적인 가이드라인을 제시하는 회사는 찾아보기 힘들다.

이 가운데 엔씨소프트가 ESG(환경·사회·지배구조)보고서를 통해 꾸준히 AI 윤리의 중요성을 강조하고 있다.

엔씨소프트는 지난해 6월 발간한 지속가능경영보고서 'ESG 플레이북 2021'에서도 '디지털 책임'이라는 항목을 통해 AI 윤리를 강조하고 있다. AI기술의 사회적 영향력을 고려한 기술 개발을 이어 가겠다는 게 엔씨소프트의 포부다.

엔씨소프트는 AI윤리 핵심 가치로 ▲데이터 보호를 중심하는 AI ▲편향되지 않은 AI ▲투명성을 추구하는 AI 등 세 가지를 제시했다.

먼저 데이터 보호 중심 AI 규칙 준수를 위해 엔씨소프트는 데이터 특성에 따른 처리 방법 및 데이터 가명처리, 개인정보 유출 방지 및 개인정보 취급 유의사항 등에 대한 교육을 정기적으로 진행하고 있다. 또 AI R&D 조직은 데이터 활용 내부 절차에서 나아가 개인정보 비식별화 정책을 수립하고 프로세스 개선을 지속적으로 노력하고 있다. 끝으로 AI 행동 패턴 분석 시 이용자의 행동 패턴 데이터를 추출하지만 사용자를 식별할 수 있는 로그가 원천적으로 남지 않도록 처리하는 과정을 거치고 있다.

편향되지 않은 AI 개발을 위해서는 비윤리적 표현 데이터센터를 사전에 구축하고 비윤리적 발화생성 방지시스템을 갖췄다. 끝으로 AI 투명성을 위해 AI 모델 작동 원리와 AI 대화 데이터셋 등을 공개하고 있다.

디지털 휴먼 사업 전개를 위해 지난해 4월 이제희 서울대컴퓨터공학부 교수를 최고 연구책임자(CRO)로 영입하고 애니메이션 및 AI 연구개발(R&D) 조직을 맡겼다. 이와 함께 사회 전반에 AI 윤리 확산을 위해 AI 프레임워크(Framework)와 AI대화 데이터셋공동연구, AI 윤리 연구 후원을 진행하고 있다.

엔씨소프트 관계자는 "AI 윤리 관련해서는 많이 준비를 하고 있다"며 "ESG보고서를 통해서도 AI 윤리를 다루고 있으며 디지털 기업으로 가져야 할 윤리의식과 책임 의식이라는 큰 틀안에서 강조하고 있다"고 말했다.

이어 "특히 윤송이 CSO가 AI 윤리 관련한 대담을 이어가고 있으며 AI 윤리 프레임워크라는 프로그램을 통해 학계와 끊임없이 소통하고 있다"고 덧붙였다.

엔씨소프트에 비해 부족하지만 넥슨과 넷마블도 AI 윤리 준수를 위한 걸음마를 뗐다.

넷마블은 게임 이용자들의 플레이 만족도와 게임 개발 효율성을 동시에 높이기 위해 지난 2014년부터 다양한 AI(인공지능) 기술을 연구해왔다. 넷마블의 AI 기술 연구 궁극적인 목표는 '사람과 함께 노는 지능적인 AI'를 만드는 것이다. AI 연구에 있어서 인간 중심을 지향하고 있다는 의미로 풀이된다.

넷마블은 AI윤리 관련해서도 준수하기 위해 데이터 보호 차원에서의 노력을 이어간다는 방침이다. 넷마블 관계자는 "넷마블은 사내 데이터보호 규정 및 최신 규제 동향을 준수해 기술을 개발하고 적용하기 위해 노력 중"이라고 말했다.

생성 AI를 통해 AI NPC 서비스 도입 등을 검토하고 있는 넥슨도 AI 윤리에 대한 논의를 진행하고 있다. 넥슨 관계자는 “AI에게 편향 없는 알고리즘이 필터링하는 기술을 적용해 알고리즘 결과가 특정 가치에 편향되거나 사회적인 차별을 강화하지 않도록 노력하고 있다”며 “프라이버시나 아동 및 청소년 부적절한 환경에서 보호될 수 있는 서비스 설계를 기반으로 운영하고 있다”고 말했다.

최근 AI 바우처 사업에 뛰어든 한빛소프트도 AI 윤리에 대한 사회적 논의에 맞춰간다는 계획이다.

한빛소프트는 ▲음성인식·음성합성·음성챗봇·자언어이해 솔루션 ▲AI 음성 아바타 생성 솔루션 ▲영상 속 객체 검출·동작 분석·문자 인식 솔루션 등의 인공지능 기술 보유를 기반으로 지난 1일 '인공지능 바우처사업' 공급기업으로 등록됐다.

이와 함께 AI로 인해 발생할 수 있는 저작권 문제 해결에도 나선다. ‘웹어셈블리 기반 블록체인 플랫폼을 이용한 디지털 콘텐츠의 위변조 판별 시스템 및 이를 이용한 디지털 콘텐츠의 위변조 판별 방법'에 대한 미국 특허를 출원했다. 국내 특허 등록은 이미 완료한 상태다.

한빛소프트는 "자사의 발명기술을 활용하면 영상, 이미지, 음성, 텍스트 등 다양한 유형의 딥 페이크를 효과적으로 방지할 수 있다"고 강조했다.

한빛소프트는 향후로도 AI 윤리에 대한 사회적 논의를 들여다보며 이에 맞춘 AI 개발을 이어간다는 방침이다. 한빛소프트 관계자는 "AI 학습 과정에서 발생할 수 있는 비속어 문제나 차별과 혐오 표현 등에 대한 거름망이 필요하다는 건 개발팀 내부에서도 인지하고 있다"며 "다만 AI 윤리에 대한 학계 논의, 사회적 합의 등 보편적인 가이드라인이 우선 정해질 필요가 있고 이를 따를 것"이라고 말했다.

한 게임사 관계자는 "국내 게임사들은 비속어 필터링 등 혐오와 차별을 조장하는 표현에 대해 방지하고 있으며 이를 통해 축적된 데이터를 활용하는 방안도 있겠다"며 "AI 윤리에 대한 사회적 합의만 충분히 이뤄진다면 제한적인 학습은 기술적으로 크게 어려운 부분이 아닌만큼 AI 윤리 리스크에 충분히 대응이 가능할 것"이라고 말했다.

저작권자 ⓒ뷰어스 무단전재 및 재배포 금지