2023년 12월 9일, 인공지능 규제 분야에 중요한 이정표가 달성되었습니다. 이러한 노력을 선도한 유럽 연합 회원국들은 EU AI법에 동의했습니다. 이 법안은 세계 최초의 AI 전용 법으로, 전 세계적으로 선례를 세웠습니다.
이러한 맥락에서 EU와 미국, 영국 등 기타 주요 경제국이 AI 규제 환경을 어떻게 형성하고 있는지, 그리고 그러한 규제가 산업과 기업에 미치는 영향을 탐구하는 것이 중요합니다.
지난 10년 동안 인공지능(AI)의 급속한 발전으로 인해 규제에 대한 전 세계적인 논의가 촉발되었습니다. 전 세계 정부와 조직은, AI 디지털 시스템에 대한 수요가 증가함에 따라, 혁신과 윤리 및 안전 문제의 균형을 맞추고자 고군분투해 왔습니다.
이러한 여정은 2023년 12월 EU AI법이 도입되면서 중요한 이정표에 도달했습니다. 이는 AI 규정을 공식화하는 선구적인 단계입니다.
현재 유럽뿐만 아니라 미국과 영국을 포함한 많은 국가에서도 AI 사용을 관리하기 위한 자체 프레임워크를 적극적으로 개발하고 있습니다. 이 기사에서는 이러한 다양한 규제 이니셔티브에 대해 자세히 알아보고 고유한 접근 방식과 잠재적 영향을 강조합니다.
AI 법안의 선구자인 EU AI법은 AI 시스템의 안전성, 합법성, 신뢰성 및 기본권 존중을 보장하는 것을 목표로 합니다. AI 애플리케이션을 위험도(허용되지 않음, 높음, 낮음)에 따라 분류하고 의료 및 운송과 같은 고위험 부문에 요구되는 엄격한 규정을 제공합니다. AI법은 EU에 배포된 모든 데이터 기반 시스템이 이를 준수하도록 요구합니다. 이러한 폭넓은 적용 가능성으로 인해 EU AI법 준수는 광범위한 부문에서 필수가 되었습니다.
12월 9일이라는 이정표는 2021년 4월, AI에 대한 최초의 규제 프레임워크, 2023년 6월, 회원국이 유럽 의회의 협상 입장을 채택하는 등 일련의 단계를 따릅니다. 도달하려면 2년의 유예 기간이 있을 것입니다. 이는 앞으로 몇 주에 걸쳐 유럽이사회 회원국의 합의에 따라 법률의 최종 형태가 공개되는 시점부터 시작됩니다. 다양한 회원국에서는 이미 앞으로 다가올 일에 대한 정보와 업데이트를 게시하기 시작했습니다.
미국에서는 국립표준기술연구소(NIST)가 AI 지침 개발에 중요한 역할을 해왔습니다. 이들은 AI 보안과 신뢰성을 강화하고 혁신을 촉진하는 동시에 윤리적, 사회적 가치를 보호하는 표준을 만드는 데 중점을 두고 있습니다.
AI 규제에 대한 영국의 접근 방식은 혁신과 윤리적 고려 사항 간의 균형을 강조합니다. 영국 정부는 데이터 개인 정보 보호, AI 윤리 및 책임을 다루는 프레임워크를 개발하여 AI의 이점이 책임감 있게 활용되도록 보장하고 있습니다.
이와 관련해 다른 나라에서도 비슷한 노력이 이뤄지고 있습니다. 글로벌 표준을 만들기 위한 움직임도 물론 존재하지만, 이 분야에서는 전 세계적으로 다양한 규제와 표준이 존재합니다.
2023년 12월에 발표된 “ISO/IEC 42001은 조직 내에서 인공지능 관리 시스템(AIMS)을 구축, 구현, 유지 및 지속적으로 개선하기 위한 요구 사항을 지정하는 국제 표준입니다. AI 기반 제품 또는 서비스를 제공하거나 활용하는 기업을 위해 설계되어 AI 시스템의 책임 있는 개발 및 사용을 보장합니다.
ISO/IEC 42001은 세계 최초의 AI 관리 시스템 표준으로, 빠르게 변화하는 기술 분야에 대한 귀중한 지침을 제공합니다. 이는 윤리적 고려 사항, 투명성, 지속적인 학습과 같이 AI가 제기하는 고유한 과제를 해결합니다. 조직의 경우 혁신과 거버넌스의 균형을 유지하면서 AI와 관련된 위험과 기회를 관리하는 구조화된 방법을 제시합니다.” – 참조. iso.org
인공 지능에 관한 표준은 새로운 것이 아닙니다. 인공 지능이 내장된 제품에 대한 요구 사항을 다루는 표준부터 더 많은 프로세스와 시스템을 다루는 표준까지 다양한 표준이 있습니다. 또한, 인공지능의 다양한 기술 및 응용과 관련된 구체적인 표준이 있습니다.
이러한 표준은 위험 관리, 데이터 수명 주기, 기계 학습, 신경망, AI의 신뢰성 등과 같은 주제를 다룰 수 있습니다. 이러한 표준을 탐색하고 비즈니스 및 또는 제품에 적용 가능한 표준을 식별하는 것은 기존 및 향후 규정을 준수하는 데 중요한 부분입니다.
곧 시행될 이러한 규제들은 다양한 산업들에 지대한 영향을 미칠 것입니다. 의료, 금융, 자동차, 공공 부문이 그 효과를 경험하는 첫 번째 분야가 될 것입니다. 의료 기기뿐만 아니라 의료 분야에서도 이미 인공 지능의 사용을 다루는 표준들이 있습니다.
이러한 분야에서 AI 알고리즘은 배포 전에 안전성, 정확성 및 편향에 대한 엄격한 테스트를 거칠 것입니다. 금융 기관들은 그들의 인공지능에 기반한 의사결정 프로세스가 투명하고 공정하도록 보장할 필요가 있을 것입니다. 자동차 부문, 특히 자율주행차 분야에서는 더욱 엄격한 안전 평가를 받게 될 것입니다. 안면 인식 기술과 같은 공공 부문 응용 프로그램들은 사생활과 인권 문제에 대해 면밀히 조사될 것입니다.
이것들은 EU 및 그 이후의 향후 규제 준수를 입증해야 할 수십 개 부문의 사례 중 일부일 뿐입니다.
기업은 앞으로 다가올 규제에 대비해야 합니다. 규제 및 비즈니스, 서비스 또는 제품에 대한 적용 가능성을 이해하고, 필요한 역량을 개발하고, 다양한 AI 애플리케이션의 잠재적 위험을 식별하고 분류하기 위한 위험 평가, 관련 표준을 준수하도록 AI 정책 및 프레임워크를 설계하는 것이 중요한 단계입니다.
EU AI 법은 글로벌 AI 규제의 중요한 단계로, 전 세계 다른 지역에서도 유사한 계획이 진행되고 있습니다. 이러한 규제물결은 주로 고위험 부문에 영향을 미치므로 기업은 신속하게 대비해야 합니다. 기업은 위험 평가, 규정 준수, 윤리적 AI 개발, 투명성 및 이해 관계자 참여에 초점을 맞춤으로써 이러한 변화를 효과적으로 해결할 수 있습니다. AI가 계속 발전함에 따라 지속 가능하고 윤리적인 AI 구축을 위해 규제 프레임워크를 앞서가는 것이 중요할 것입니다.