「人工知能基本計画骨子」に対する意見

内閣府より募集がありました「人工知能基本計画骨子」に対して、NAFCAより提出したパブリックコメントを公開します。

概要や意見募集対象などはこちらから

人工知能基本計画骨子等に関する御意見の募集について

※リンク先「4.意見募集対象」の「人工知能基本計画骨子」別添PDFを参照してください

P2 1行目

「世界で最もAIを開発・活用しやすい国」が、「世界で最も著作権を軽視する国」とならないよう、政策形成・運用の各段階において最大限の配慮を求めます。また、我が国の基幹産業と指定されるコンテンツ産業の権利者、ステイクホルダーへの情報提供と対話を欠かさぬようお願い申し上げます。

P2 2行目

我が国の現状に、平将明デジタル大臣や城内実AI戦略担当大臣からも言及があったSORA2等、我が国のコンテンツを無断利用する生成AIに対する懸念について記載することを強く求めます。

P2 23行目

「反転攻勢の好機」と記されていますが、そもそもなぜ反転攻勢を強いられる状況に至ったのか、その経緯が示されていないまま「好機」とだけ述べるのは透明性と一貫性を欠きます。

不利な局面からの巻き返しを指す以上、いつ・どの判断が・どのような要因によって不利を招いたのかを明確にすることは説明責任の根幹ではないでしょうか。

背景を示さずに前向きな言葉だけを掲げれば、不利な状況そのものを曖昧にし、政府の判断過程を検証不能にしてしまいます。

国民は「なぜ反転攻勢なのか」「その必要を生んだ原因は何か」を知らなければ、現在の方針の妥当性を評価できず、政策への信頼も確保できません。

まずは不利な局面を招いた経緯、要因、教訓を明示し、その上で現在の情勢判断を記述することを求めます。

P2 27行目

「AIを使ってみる行為」が著作権を侵害することのないよう、啓蒙活動の徹底をお願いいたします。「使ってみる」を推奨する前に、AIに関する国民的議論を深め、そして敬意ある契約に基づく信頼を構築することが必要だと考えます。著作権・肖像権・財産権のみならず、倫理面からもAIの利活用の是非を多角的な視点を持って議論し、その過程と結論を広く公表することによって、国民の理解と意識を高めることが不可欠ではないでしょうか。さらに、法律だけではカバーしきれない領域については、互いに敬意を払った契約により補完していく必要があると考えます。

P3 1~6行目

リスクの列挙自体は妥当と考えますが、文化芸術分野に特有の重大なリスクが明示されていません。

文化・芸術領域における人格権・肖像権・財産権の侵害や、俳優・声優・歌手等の声質が無断で複製されている深刻な問題について、計画本文に明確に位置付けることを求めます。

これらは誤情報リスクと同列に扱うべきではなく、文化的基盤への侵害として体系化し、被害実態の調査と緊急措置の検討を明記すべきです。

また、透明性を担保するためには、AIによる生成物であることの明示を義務付ける必要があると考えます。近年、災害情報や危険情報に関するAI生成物が多く確認されており、これらは生命の安全に直結する重大なリスクとなっています。ディープフェイク被害の抑制の観点からも、AI生成物には生成物である旨を明示させるべきではないでしょうか。

P3 11行目

国会審議では個人の尊厳が尊重される「人間中心のAI社会」へ向けて、著作権侵害への不安や性的ディープフェイクなどのリスクが言及されました。本計画では、「人間中心」の文字があるのはこの部分のみです。また、中身が抽象的で、クリエイターや出演者の人格権・肖像権・名誉等を侵害するAI生成物への対応が明確に書き込まれていません。生成AIが人間の芸術文化を損なわないよう、「創作者・実演家等の権利保護」を人間中心原則の具体項目として位置付けることを求めます。

P5 13~15行目

政府自らが率先してAIを使うのであれば、その調達するAIモデルがどのようなデータで学習しているのか、著作権・肖像権・人格権に関するリスク評価を透明化することが不可欠です。アニメ・映画・マンガの画像や映像が無断で学習に利用されたモデルを、政府が公費で採用すれば、権利侵害の既成事実化を招きます。モデル選定時に、権利処理・データの由来について説明責任を課すこと、クリエイター団体を含む第三者によるチェック機能を明記する形で、「適正な調達」の基準を具体化してください。また、P2 27行目へのパブコメでも指摘した通り、議論を深めること、敬意のある契約を結ぶことこそを「隗より始め」ていただければと強く願います。

P7 27~28行目

AI社会を支える基盤は技術者だけではありません。「日本語・文化・商習慣・情緒を理解できる国産AI」の実現には、創作者・声優・アニメーター・作曲家など、文化産業の専門人材がモデル性能に直結する「データ品質の源泉」であり、不可欠な存在です。

しかし計画中に文化分野の専門人材育成や待遇改善の文言は見当たりません。AI開発者を含む「文化的知識インフラの提供者」としてクリエイターを正式に位置づけ、文化データ産業の人材政策を計画に組み込むことを求めます。

P9  24〜26行目

AIがもたらすリスクとして「偽情報」「偏見」等が列挙されていますが、生成AIが今後さらに深刻化させるのは、視聴者の認知・感情・注意そのものを標的とする侵害です。

特に映像・音響・キャラクター造形に関わる文化分野では、脳が反応する刺激構造を高精度に学習したAIが、特定の感情誘導、依存形成、注意喚起を過剰に促す可能性があります。

これは単なる情報リスクではなく、人間の判断力・自律性そのものへの影響という本質的問題です。

ガバナンスを検討する第3章において、心理的安全性・認知的自由(cognitive liberty)をAI政策の柱として明記し、AIS Iの評価対象に「認知・感情への影響評価」を加えるなど、文化・創作分野を認知領域においても守る枠組みを整備することを求めます。

P11 5~7行目

この一文は、生成AI時代の文化政策において極めて重要な「入口」と位置付けられるものですが、抽象的な提示にとどまり、国会で議論されてきたオプトアウト権やディープフェイク問題に直結する具体的対策が示されていません。

基幹産業であるコンテンツ産業を確実に保護しうる具体的な立法措置、さらにはオプトアウト権の確立も視野に入れた実行可能なロードマップへと明確化されることを求めます。

また、米国連邦著作権局による生成AI関連報告書でも指摘されているように、商業目的の生成AIにおいて著作物を無断利用する行為はフェアユースには該当せず、我が国の著作権法第30条の4が規定する「著作権者の利益を不当に害する場合」に該当するものと考えます。この点について、政府としての見解を再検討するよう強く要請します。

P12 13~14行目

推進体制に「文化・クリエイティブ産業」の専門家を加えることを求めます。城内実AI戦略担当大臣は、国会で「クリエイターの不安に向き合う姿勢」を示されていました。実際に、生成AIは文化芸術分野における人格権・著作権・実演権に深刻な影響を与えています。

推進会議・有識者会議に、コンテンツホルダー、実演家団体、クリエイター団体、そして生成AIのクリエイティブ分野での活用に対して懐疑的な有識者を加える公平な仕組みを、計画に明記することを求めます。