유럽연합(EU)이 인공지능(AI) 규제를 향한 주요조치로 AI법(AIA)에 잠정 합의하면서 메인 글로벌 경제권에서 AI를 위한 최초의 포괄적인 법적 프레임워크로서 선례를 남기게 되었습니다. 2024년 상반기에 법으로 제정될 예정인 AIA는 개인의 권리와 사회적 가치를 보호하는 것을 목표로 단일 목적 및 범용 AI 시스템을 관리하기 위한 규범적 리스크 기반 접근 방식을 도입합니다.
AIA는 인권, 건강, 안전, 사회적 영향에 대한 리스크 수준을 기준으로 AI 시스템을 구분합니다. 허용할 수 없는 리스크 초래하는 것으로 간주되는 AI 시스템을 전면 금지하고, 위험도가 높은 AI 시스템은 엄격한 조건에서 배포할 수 있습니다. 그림 1은 리스크 수준에 따라 분류된 AI 시스템의 예시 목록을 대략적으로 보여줍니다. 이 법은 고위험 응용 프로그램에 초점을 맞춰 의료, 법 집행, 고용과 같은 중요한 영역에 엄격한 요구 사항이 적용되도록 보장하고 EU 시장에서의 개발 및 배포에 대한 신뢰와 안전을 도합니다. 또한, 이 법은 모든 범용 AI(GPAI) 모델에 투명성 요구 사항을 적용하고, 영향력이 큰 GPAI 모델에는 훨씬 더 엄격한 의무를 부과합니다.
그림 1. EU AI 법에서 리스크 수준에 따라 분류된 AI 시스템 예시의 비포괄적 목록. 면제 대상은 AI 법의 최종 문안이 발표되면 확정될 예정입니다.
AIA의 범위는 EU를 넘어 확장되어 유럽내에서 AI 시스템을 판매하거나 사용하는 전 세계 조직에 영향을 미칩니다. 이러한 광범위한 영향력으로 인해 다국적 기업은 AIA를 준수하기 위해 글로벌 AI 전략을 재평가하거나 EU 시장에서 AI 사용을 축소할 리스크가 있습니다. 이전 시나리오는 AI 거버넌스 관행의 혁신을 촉진하여 기업이 AI 시스템의 윤리적 고려와 투명성을 우선시하도록 유도하고 AI 개발 및 배포에 대한 새로운 글로벌 표준을 설정할 수 있습니다.
이 법은 조직이 AI 시스템을 철저히 조사하여 새로운 규정의 영향을 받는 시스템을 식별하고 필요한 규정 준수 조치를 평가하도록 강제합니다. 이 프로세스에는 기술적 조정뿐만 아니라 AI 사용에 대한 더 큰 책임성을 향한 기업 문화의 변화도 포함됩니다. AI 시스템 수명주기 전반에 걸쳐 문서화, 리스크 평가 및 투명성에 대한 강조는 AI 개발에 대한 보다 의식적이고 책임감 있는 접근 방식을 장려합니다.
2021년 4월 제안 이후 장기간의 협상 단계를 거친 후, AIA에 대한 정치적 합의는 AIA 제정을 향한 중추적인 진전을 의미합니다. 법이 발효된 후 규정 준수를 보장하기 위해 기업은 2년의 유예 기간을 갖게 되며 특정 조항은 더 일찍 발효됩니다. 금지된 AI 시스템에 대한 금지는 AIA 발효 후 6개월 후에 발효되며, GPAI 시스템 및 모델에 대한 조항은 AIA 발효 후 12개월 후에 발효됩니다(그림 2 참조).
Figure 2. AI Act timeline
정의
AIA는 AI 시스템의 정의를 경제협력개발기구(OECD)의 정의와 일치시키는 것을 목표로 하고 있지만 정확한 용어는 아직 정해지지 않았습니다. 이 정의는 AI를 단순한 소프트웨어 시스템과 구별하고 비례적인 규제 범위를 보장하는 데 중요합니다. 이러한 명확성은 규제 기관과 규제 대상 기관 모두에게 중요하며 규정 준수 및 집행을 촉진합니다.
AI 가치 사슬에서 역할 할당
AIA는 공급자, 수입업자, 유통업자, 배포자를 포함하여 AI 가치 사슬에 있는 다양한 이해관계자의 책임을 명확히 합니다. 이러한 역할을 이해하는 것은 규정 준수를 위해 필수적이며, 특히 AI 시스템 제공업체 및 배포자와 같은 주요 행위자에게는 더욱 그렇습니다. 책임에 대한 이러한 구조화된 접근 방식은 각 참가자가 AI를 윤리적이고 책임감 있게 사용한다는 중요한 목표에 기여하는 책임 있는 AI 환경을 구축하는 데 중요합니다.
고위험 AI 시스템의 핵심 요구사항
이 법은 AI 시스템을 잠재적 리스크에 따라 분류하고 혁신과 안전 사이의 균형을 강조합니다. 고위험 시스템에는 적합성 평가 수행, 새로운 EU AI 데이터베이스 등록 등 엄격한 규정 준수 표준이 적용됩니다. 이러한 요구 사항은 강력한 거버넌스 및 리스크 관리 프레임워크의 필요성을 강조합니다. 또한 고위험 AI 시스템 배포자는 기본권 영향 평가(FRIA)를 수행하여 AI가 개인 정보 보호, 차별 금지 및 표현의 자유에 미치는 잠재적 영향을 평가해야 합니다. 이 요구 사항은 기본권 보호에 대한 법의 약속을 강조합니다.
비례성 및 중소기업 지원
규정 준수에 대한 부담을 인식한 AIA에는 규제 샌드박스, 혁신 촉진 환경에 대한 우선적 접근 등 중소기업에 미치는 영향을 완화하기 위한 조치가 포함되어 있습니다. 이러한 이니셔티브는 규제를 준수하면서 AI 개발을 촉진하는 것을 목표로 합니다.
AIA는 전 세계 기업에 영향을 미치는 새로운 AI 규제 기준을 제시합니다. 기업들은 이 법의 요구사항을 파악하여 자사의 AI 전략과 운영을 EU 표준에 맞게 조정하고 글로벌 AI 거버넌스에 미칠 광범위한 영향을 예측해야 합니다. AI법은 혁신적이면서도 책임감 있는 글로벌 기술 생태계를 촉진하여 AI 규제에 관한 국제적 협력의 모범이 될 수 있습니다.
EU AI 법은 AI 규제의 중요한 시점으로, AI의 윤리적이고 안전한 배치를 보장하기 위한 체계적인 프레임워크를 제공합니다. 단체들이 해당 법의 시행을 준비할 때, 전략적 선견지명과 적응력은 EU와 전 세계적으로 진화하는 AI 규제 환경을 헤쳐나가는 데 핵심이 될 것입니다.
테스트, 검사 및 인증 서비스 분야에서 숙련된 역량을 갖춘 Nemko는 EU AI 법의 복잡한 요건을 충족할 수 있도록 조직을 안내할 준비가 되어 있습니다. 갭 분석, 컨설팅, 교육을 포함한 일련의 서비스를 제공하는 Nemko는 기업이 EU AI 법의 요구 사항을 효과적으로 이행하고 윤리적이고 책임감 있는 방식으로 AI를 사용할 수 있도록 지원할 수 있는 역량을 갖추고 있습니다.