AI는 CES 2024에서 가장 화두였다 해도 과언이 아니었다. 알파고가 이세돌과 맞붙었던 2015년만 해도 인공지능은 일부 전문분야에서 한정적으로 사용될 것이라는 생각이 많았다. 그로부터 8년이 지난 2023년 초, 오픈AI가 쏘아올린 챗GPT는 1년 만에 IT 시장의 판도를 바꾸었다.
어도비와 엔비디아는 이러한 일련의 AI 호황의 최선봉에 서있다. 엔비디아가 지난 3월 발표한 신규 AI칩 B200과 AI 플랫폼 GB200은 발표와 동시에 세계의 이목을 끌었고, 어도비는 포토샵, 일러스트레이터 등 자사의 서비스에 생성형 AI 기술을 도입하여 업무효율성을 대폭 끌어올린 것으로 평가받는다.
하지만 일각에서는 생성형 AI가 인접 기술ㆍ산업뿐만 아니라 사회 전체에 큰 영향을 미칠 수 있음을 경계해야 한다고 지적하기도 한다. 금번 CES 2024에서 열린 <AI 리스크를 관리하면서 혁명을 관리하기 :Harnessing AI Innovation While Governing risk> 세션에서는 양사의 AI의 활용과 리스크 관리에 관한 입장을 들어볼 수 있었다.
왼쪽부터 모더레이터를 맡은 Oz Karan Deloitte 파트너, Alexandru Costin Vice President of Generative AI & Sensei Adobe, 그리고 Nikki Pope Senior Director, AI and Legal Ethics NVIDIA Corporation
생성형 AI의 가장 큰 리스크는, 이를 (사용)하지 않는 것
생성형 AI의 가장 큰 특징은 ‘창의성’이다. 기술적으로 모든 결과물은 통계적 산출에 불과하다는 지적은 실제 산출물을 활용하는 산업군의 앞에서 힘을 잃었다. 챗GPT가 등장하기 전까지만 해도 많은 사람들은 기계적인 업무가 대체되고 인간은 창작과 예술 등에 집중할 수 있는 미래가 올 것이라고 기대했다. 하지만 AI는 인간의 창의성부터 가져갔다. 생성형 AI는 가장 먼저 예술군 직역의 일자리를 직격했다. 작년 5월부터 9월까지 있었던 미국작가조합의 파업 역시 AI를 통한 인력 감축 철회를 요구하기 위한 수단이었다.
기술의 발전으로 인해 사라질 산업들, 그리고 남겨질 사람들을 어떻게 보호하고 대응할 수 있을까. 어도비의 Alexandru Costin 부대표는 이렇게 발언한다. “생성형 AI의 가장 큰 리스크는, 이를 사용하지 않는 것이다.”
생성형 AI를 사용하지 않는 것은 인터넷을 사용하지 않거나 컴퓨터를 사용하지 않는 것과 마찬가지의 디지털 문맹(digital illiteracy)의 한 형태에 해당한다는 취지로 발언한 그의 말은 곧 AI를 사용하지 않는 것이 선택지에 없을 것이라는 강력한 선언이기도 했다.
속도냐 안전이냐. 기업별 자율규제
19세기 초 산업혁명, 2000년대 초 줄기세포의 대두, 그리고 2023년의 생성형 AI에 이르기까지. 혁명적 기술의 도래 앞에 인간에게 놓인 결정은 언제나 속도와 안전 사이에서의 비교형량이었다. 하지만 자본주의와 경쟁 사회에서 하나의 기업이 선택할 수 있는 길은 많지 않았다. 우리 기업이 안전을 택했고 다른 기업은 속도를 선택했을 때, 기업의 도태를 초래할 것이라는 두려움은 모든 기업이 속도를 선택하게 했다. 이처럼 속도와 안전을 모두 챙길 수 없을 때, 과연 기업들은 안전을 택할 수 있을까.
속도와 책임감 있고 안전한 발전 사이에서 전략적인 선택이 필요하다는 것은 모두 동의하는 바이다. 세션에서 연사들은 기업들이 내부적으로 AI 윤리 위원회를 구축하고, 법무 인력이 이에 포함되도록 하는 것이 중요하다고 언급했다. 특히 AI 개발을 위한 데이터의 처리에 엄격한 프로세스를 구축하는 것을 강조했다. 이를 위해 데이터의 층위를 다르게 하여야 한다고 언급했다. 직접 형성하는 데이터, 라이선스받은 데이터, 그리고 인터넷에서 스크래핑한 데이터를 구분하고, 그 상이한 위험성에 따라 처리절차 역시 다르게 두어야 한다는 것이다.
내부규제의 한계, 공적 규제의 등장
그러나 기업의 자율규제가 일 단위로 이뤄지는 AI 경쟁의 속도전에서 제대로 작동하기에는 한계가 있을 수밖에 없다는 점 역시 인정했다. 당장 생존이 달린 기업들이 자율적으로 인류의 안전을 고려한 AI를 개발하기는 쉽지 않다는 것이다. 연사들은 결국 정부 차원에서 AI 위험성을 고려한 규제 설계가 필요하다고 보았다.
각국은 이미 이러한 움직임에 발맞추고 있다. EU에서는 일반적인 고위험 산업 분야에 AI 활용을 제한하는 AI Act를 통과시켰고, 금지 조항 위반 시 벌금도 부과하고 있다. 미국 또한 AI Bill of Rights에 관한 논의를 이어가고 있다. 우리나라 역시 ‘AI 기본법’이 발의된 바 있다. 그러나 이에 대한 회의론도 만만치 않다. 문화 지체 현상이 뚜렷한 현 상황에서 공권력에 의한 실질적 규제가 가능하겠냐는 것이다.
AI 리스크를 관리하여 혁명에 올라타기 위한 흐름
이런 상황에서 강조되는 것이 소위 ‘연성 규제’, 즉 주주, 소비자, 시민사회에 의한 규제이다. 이를 위해서는 시민사회의 적극적 문제제기, 소비자의 적극적 행위, 그리고 주주의 AI 거버넌스에 대한 주주제안ㆍ요구 등의 액션을 통해 내부규제와 공적 규제 사이의 공백을 메울 수 있을 것이다. 사회 일반의 AI 거버넌스에 대한 인식 제고가 무엇보다 중요해지는 이유이다.