2023年12月9日、AI (人工知能)規制の領域で重要なマイルストーンが達成されました。この取り組みの先駆者である欧州連合(EU)加盟国が、EU AI法に合意したのです。この法律はAIに関する世界初の専用法として機能し、世界的な先例となるでしょう。
このような状況において、EUや米国、英国などの他の主要経済国がAI規制の状況をどのように形成しているのか、またそのような規制が産業や企業にどのような影響を及ぼすのかを探ることは不可欠です。
過去10年間、人工知能(AI)の急速な進歩は、規制に関する世界的な話題に火をつけました。世界中の政府や組織は、AIシステムに対するデジタルの信頼に対する要求が高まる中、イノベーションと倫理的・安全的懸念とのバランスを取るという課題に取り組んできました。
この旅は、2023年12月のEU AI法の導入で大きな節目を迎え、AI規制の正式化に向けた先駆的な一歩となりました。
しかし、これは孤立した取り組みではないことに注意することが重要です。米国や英国を含む多くの国々もまた、AIの利用を管理するための独自の枠組みを積極的に開発しています。本稿では、こうした様々な規制の取り組みについて掘り下げ、それぞれのユニークなアプローチと潜在的な影響に焦点を当てています。
EUのAI法は、AIシステムの安全性、合法性、信頼性、基本的権利の尊重を確保することを目的としています。同法は、AIアプリケーションをリスク(許容できない、高い、低い)に基づいて分類し、医療や運輸のようなリスクの高い分野には厳格なコンプライアンスを求めています。AI法は、EU域内で展開されるあらゆるデータ駆動型システムに対して、その遵守を要求しています。このように適用範囲が広いため、EU AI法への適合は幅広い分野で必要となっています。
12月9日の節目は、2021年4月のAIに関する最初の規制枠組み、2023年6月の欧州議会議員による交渉姿勢の採択など、一連のステップに続くものです。今後数週間のうちに予想される欧州理事会メンバーの合意により、法律の最終形が利用可能になった時点から、順守に至るまで2年間の猶予期間が設けられます。すでにさまざまな加盟国が、これから起こることに関する情報や最新情報を発表し始めています。
米国では、国立標準技術研究所(NIST)がAIガイドラインの策定に尽力してきました。彼らの焦点は、AIのセキュリティと信頼性を高める基準を作成し、倫理的・社会的価値を守りつつイノベーションを促進することにあります。
AI規制に対する英国のアプローチは、イノベーションと倫理的配慮のバランスを重視しています。英国政府は、データプライバシー、AIの倫理、説明責任に対応する枠組みに取り組んでおり、AIの恩恵が責任を持って活用されることを保証しています。
この点に関しては、他国でも同様の取り組みが行われています。グローバルスタンダードを作ろうとする努力にもかかわらず、企業は世界中でこの分野における複数の規制や基準を期待することができます。
2023年12月に発行された「ISO/IEC 42001」は、組織内における人工知能マネジメントシステム(AIMS)の確立、実施、維持、継続的改善に関する要求事項を規定した国際規格です。AIMSは、AIベースの製品やサービスを提供または利用する事業者向けに設計されており、AIシステムの責任ある開発と利用を保証します。
ISO/IEC 42001は世界初のAIマネジメントシステム規格であり、急速に変化するこの技術分野に貴重なガイダンスを提供しています。この規格は、倫理的配慮、透明性、継続的な学習など、AIがもたらす特有の課題に取り組んでいます。組織にとっては、イノベーションとガバナンスのバランスを取りながら、AIに関連するリスクと機会を管理するための構造的な方法を定めている。
人工知能に関する規格は新しいものではありません。人工知能を組み込んだ製品への要求事項を取り上げたものから、より多くのプロセスやシステムを取り上げたものまで、さまざまな規格があります。さらに、人工知能の様々な技術やアプリケーションに関連する特定の基準も存在します。
これらの規格は、リスク管理、データライフサイクル、機械学習、ニューラルネットワーク、aiの信頼性などのトピックを扱うことがあります。これらの規格を理解し、自社のビジネスや製品に適用可能な規格を特定することは、既存の規制だけでなく、今後予定されている規制にも準拠するための重要な要素である。
今度の規制の実施は、さまざまな業界に大きな影響を与えるでしょう。なかでも、医療、金融、自動車、公共部門が、その影響を最初に経験することになりそうです。医療機器だけでなく、ヘルスケアにおける人工知能の使用にも対応した基準がすでに存在します。
これらの分野では、AIアルゴリズムは導入前に安全性、正確性、偏りについて厳しいテストを受けることになります。 金融機関は、AIによる意思決定プロセスの透明性と公平性を確保する必要があります。自動車分野では、特に自律走行車の文脈で、より厳格な安全性評価に直面するでしょう。顔認識技術のような公共分野への応用は、プライバシーや人権への懸念から精査されることになるるでしょう。
これらは、EUやそれ以降に予定されている規制への適合を実証する必要がある数十のセクターのほんの一例に過ぎません。
企業は来るべき規制に備えなければなりません。自社のビジネス、サービス、製品に対する規制とその適用可能性を理解し、必要なコンピテンシーを構築し、様々なAIアプリケーションの潜在的なリスクを特定・分類するリスクアセスメントを行い、関連する基準に準拠するようにAIのポリシーとフレームワークを設計することが、取るべき重要なステップの一つです。
EUのAI法は、世界のAI規制において重要な一歩を踏み出すものであり、世界の他の地域でも同様の取り組みが進められています。この規制の波は主にリスクの高い分野に影響を与え、企業は迅速に適応することが求められます。リスク評価、コンプライアンス、倫理的なAI開発、透明性、利害関係者の参画に注力することで、企業はこうした変化を効果的に乗り切ることができます。AIが進化し続ける中、規制の枠組みを先取りすることは、持続可能で倫理的なAIの展開にとって極めて重要です。