EU AI Actが与える今後の影響について

4、5年前でしょうか、職場の複数のZ世代の若者に、「検索するときに使用するツールは?」と尋ねたことがあります。複数の方から「Instagram」と聞き、当時は大きな衝撃を受けました。そして今同じ質問をすれば「AI(生成AI)」と答える人が増えているのではないでしょうか?
これまで企業がデジタル空間で集客するための中心的な手段は検索エンジン最適化(SEO)でした。Googleの検索結果ページに上位表示されることが、WEBサイトへの流入とオンラインショップでの売上を左右してきたと言えるでしょう(中国では既にWEB検索ですら主流ではなくなっていますが)。
現在はChatGPTやGeminiといった生成AIが台頭し、ユーザーは検索結果をクリックするのではなく、最初からAIに尋ねてAIがまとめた答えを直接受け取るようになる機会が増えたのではないでしょうか。今回の記事では、これまでGDPRをテーマに書いてきたことを踏まえ、EUのAI Actの視点から書いてみたいと思います。
GDPRの教訓:制裁金が生む実効性
GDPRが世界的に影響力を持った背景には、最大でグローバル売上高の4%または2000万ユーロ(高い方)という巨額の制裁金がありました。
私自身、GDPR施行前に対応プロジェクトのリーダーを任命され、関係者に協力を依頼する際、この「2000万ユーロ」という数字は強力な説得材料になったことを覚えています。実際に大手テック企業が数億ユーロ規模の罰金を科され、世界中の企業が「無視できない」と認識するに至りました。
AI Actでも同様に、違反時の制裁金は最大でグローバル売上高の7%または3500万ユーロの高い方 と定められています(第99条)。これはGDPR以上のインパクトを持ち、AIを扱うすべての事業者に強い遵守圧力を与えることと感じています。
日本のAI推進法は?
今年6月4日に公布・施行された日本のAI推進法(人工知能関連技術の研究開発及び活用の推進に関する法律)についても触れておきたいと思います。
この法律は努力義務を中心とするため一見「ソフトロー」(強制力や法的制裁がない)に見えますが、実際には国の責務や計画義務を法律で明示(第4条)し、国家戦略としての法的位置付けが明確化(第1条、第4条、第18条)し、さらに将来的な規制強化に向けた布石(附則第2条)を打った「基本法」となる中間的アプローチとなっています。
まだスタートラインに立ったばかりですが、日本の個人情報保護法がGDPRの十分性認定を受けて良い影響(個人の主観ですが)を受けたように、AI推進法も今後、AI Actの良い面(例えば、リスクベースド・アプローチ)も取り入れながら発展していくことが期待されます。直近では9月1日に「人工知能戦略本部」の設置も発表されました。
透明性と説明責任
AI Actが重視するのは第13条と第50条の「透明性」(Transparency)と「説明責任」(Accountability)です。あれっ?どこかで聞いたような?気づいてくださった方ありがとうございます。以前、透明性についてブログ記事(GDPR 第6回 透明性に関するガイドライン)を書いているのですが、GDPRの原則との共通項です。
-
第13条:高リスクAIに関する透明性義務
-
第50条:AIとの対話や生成コンテンツにおける透明性義務(AIであることの通知やラベル表示)
-
第17条・第18条:提供者に対する品質管理システムや書面化の義務 → これは「説明責任」の根拠となる条文
AI Actは、GDPRが個人データ利用において確立した「透明性」と「説明責任」という原則を、AIアルゴリズムの利用に拡張したものだといえるかと思います。
すでにChatGPTや、最近「Googleに挑む検索AI」として注目されるPerplexityは、回答に出典リンクを添える方向へ進化しています。これはAI Actが義務づける透明性の先取りする動きといえます。
結果として、AIにおけるSEOとは「AIに拾われる信頼性の高い情報を提供すること」に他なりません。検索順位を意識するだけでは不十分で、情報の品質・責任ある運営主体・正確な出典が評価軸となるのです。前述の制裁金のようにEU法は厳しい側面だけでなく優れた面があるんですよね。
AIリテラシーと子どもの保護
AI Actの特徴は、事業者への義務だけでなく(第4条)、市民のAIリテラシー向上にも触れている点(前文20)です。こうした教育を社会的に進めることで、AIとの健全な共生を目指しています。また、日本のAI推進法第8条においても国民の責務として協力が求められており、方向性は共通しています。
また、これはSNSのレコメンド依存が子どもや若者に与える悪影響に対処してきた 英国のChildren’s Code(以前、ブログにて紹介) と通じる考え方です。透明性のあるAIと市民のリテラシー強化は、ブラックボックス的な検索エンジンやSNSアルゴリズムの負の側面からの脱却につながる一筋の光明と感じていたのですが。。。
悲しいニュースとAI規制の必要性
悲しいことにこの記事を書いている最中に、ChatGPTを利用していた米国の16歳の少年が自殺したとのニュースがありました。現時点では因果関係は立証されていませんが、もしAIの利用が少年の脆弱性に作用していたとすれば、AI Actではどのようなケースになるか調べてみました。
AI Actにおける子どもの保護
今回のケースでは、第5条Prohibited AI practices(1)(b)の禁止事項に抵触していると考えられます。
the placing on the market, the putting into service or the use of an AI system that exploits any of the vulnerabilities of a natural person or a specific group of persons due to their age, disability or a specific social or economic situation, with the objective, or the effect, of materially distorting the behaviour of that person or a person belonging to that group in a manner that causes or is reasonably likely to cause that person or another person significant harm; |
AI規制に求められるもの
検索エンジン対策においては、アルゴリズムを攻略することが優先であった時期もありました。それだけでなく、WEBやECに関わる方は(私自身もそうなのですが)SEOを気にしないわけにはいかない宿命でもありました。しかしAI時代においては、「AIに信頼される情報を提供できるかどうか」 が鍵になると考えられるかと思います。
-
GDPRがデータ利用の透明性を世界に浸透させたように
-
AI Actはアルゴリズムの透明性と説明責任を義務化し、世界的規範となる可能性が高い
企業にとってAIにおけるSEOは、もはや単なるマーケティング施策ではなく、法規制対応と不可分の信頼性ブランディング戦略と考えています。AIをめぐる法規制では、推進したい国家や企業の政策もあるとは思うのですが、人権や命に関わる部分ではハードローによる厳しい規制が求められる面もあるのではとあらためて感じた次第です。
そしてそれは同時に、AIが人々の生活に安心と安全をもたらす新しい情報環境を切り開くものとなりうると感じ今後に期待しています。
補足:当初はSEOに関連した記事を中心にまとめる予定でしたが、米国でChatGPTを利用していた16歳の少年の自殺のニュースがあり執筆途中で内容を少し変更しました。
※ 本記事記載にあたり、細心の注意を払っておりますが、法的な助言を行うものではございません。また、正確性・完全性を保証するものではなく、法令対応のご確認は、お客様ご自身で、弁護士・専門家にご確認いただく必要がございます。