2024年01月28日 09:31 弁護士ドットコム
専門家でなくても手軽に利用できるChatGPTやMidjourneyなどのサービスにより、一気に身近な存在となった生成AI。だが、普及に伴って生成AIの学習に使われる著作物や、出力されたデータの権利など、法的な問題の整理も急務となっている。
【関連記事:セックスレスで風俗へ行った40代男性の後悔…妻からは離婚を宣告され「性欲に勝てなかった」と涙】
『ChatGPTは世界をどう変えるのか』(中公新書ラクレ)を上梓した国立情報学研究所の佐藤一郎教授に、生成AIを巡る法整備について聞いた。(ライター・梶原麻衣子)
――生成AIの社会への浸透によって、法的な問題も顕在化してきます。どのような点が問題になるのでしょうか。
生成AIのサービスを提供する事業者はもちろん、利用者にもかかわるのが著作権の問題です。
著作権の問題として、まず2つの問題が考えられます。一つ目は、生成AIの学習モデルを構築する段階で、他人の著作物を組み入れてしまうことの法的問題です。
日本では2018年の法改正時に著作権法の30条の4が導入されました。
これは「学習モデルでは著作物は統計化されており、著作物を享受するとは言えず、著作権者の許諾なしに著作物を取り込むことができる」とするもので、他国にはない、著作物の機械学習での利用を緩和する条文です。そのため、日本は「機械学習天国」と呼ばれることさえあります。
しかし同法には「ただし、当該著作物の種類及び用途並びに当該利用の態様に照らし著作権者の権利を不当に害することとなる場合は、この限りでない」とあることから、解釈によっては「無断で他人の著作物を学習データとして利用することは、著作権者の権利を不当に害する場合がある」とも考えられます。
現に日本新聞協会は、報道機関の記事を無断でAIに学習させることを問題視しており、まさに議論の真っ最中です。ただ、著作権法の30条の4についてはまだ判例がないため、前述の「ただし」書きの範囲を含めて判断できない状況にあります。
そして二つ目は、生成AIによる生成物に他人の著作物に類似した内容が含まれる場合です。例えば生成AIに「村上春樹風の小説を出力して」と命じれば、学習データによっては相応の文章が生成されるでしょう。これは著作権侵害になるのかどうか。
これまでのように作品を作るのが人間の場合、村上春樹の小説を読んで自分も書いてみようと思った筆者であれば、真似しようと意図していなくても「テイストが似る」ということはあり得ると思いますし、これは著作権上の問題にはなりません。また、真似するには学習するにも書くにも相応の時間や手間が必要でした。
一方、AIの場合は短時間で大量のデータを学習し、生成物を出力することができますから、「テイストが似る」ということを人間と同じ基準で考えていいのかという疑問が出てきます。
また、御存知のように著作権を侵害しているかどうかは、「似ているかどうか(類似性)」だけでなく、「他人の作品を利用したかどうか(依拠性)」が問われますが、生成AIの場合は「依拠したかどうか」を判断するのが困難です。
というのもサービスを提供する事業者であっても、生成AIが学習したデータは大量であり、学習データから構築した学習モデルは複雑であり、さらにそのモデルは、データは断片化されて統計量の集まりといえて、各統計量がどの学習データと対応しているかはわかりません。従って、生成AIの生成物が特定の学習データ、例えば他人の著作物を利用しているか、つまり依拠しているかは、著作者はもちろん、生成AIの事業者もわからないのが現実です。
文化庁のコメントによれば、「人による作品と区別することなく、類似性と依拠性を含めて著作権法違反かどうかを判断する」ことになりますが、生成AIにおいて依拠性の判断が難しいことを根拠に、今後、著作権侵害は類似性だけで判断すべきという意見も出てくるかもしれません。
――利用者が出力された生成物が他者の著作権を侵害しているかどうかを見極めるのも難しいですね。
これが、さらにその先にある問題にもつながります。なかなか日本では注目されていない点ですが、生成AIによる出力を利用する側の保護です。利用者としては単に生成AIを使って出力しただけにもかかわらず、出力したものに他人の著作物が含まれていたり、あるいは他人の著作権を侵害していた場合、どうなるかという問題です。
利用者は単に生成AIを使っただけであっても、仮に生成された文章や画像が他人の著作権を侵害していた場合、法的な責任を問われることになるのかどうか。先ほど述べたように、事業者であっても学習データにどのような著作物が含まれるか、なぜそのような出力をしたのかを調べるのは困難ですから、生成AIの利用者ならなおのことです。
例えば、画像生成もできるAIのBingで「東京の人間が考える千葉のイメージを出力してください」と指示すると、画像の一部に某テーマパークらしき建物や、見覚えのあるネズミのキャラクターが含まれてしまうことがあります。これはBingに限らず、他の生成AIでも起きうることです。これは著作物の権利者だけでなく、利用者にもよいとはいえません。生成AIの利用者が、気がつかずに著作権的に問題が起きる可能性がある生成物を使ってしまい、権利者から訴えられる事態もありえます。
そうした問題を回避するため、Adobeが提供を始めた画像生成サービスFireflyは、「利用者が、出力したものについて著作権にまつわる法的な問題に巻き込まれた場合は、事業者であるAdobeが補償する」と表明しています。これはAdobeは同社が利用する限りは許諾済みの大量の画像を保有しており、その画像を学習データにでき、さらに自社で学習モデル及び生成を行うAdobeだからこそできる取り組みで、利用者も法的なリスクを負わずに利用できるメリットがあります。
今後はこのように学習モデルの元となる大量の画像の収集から、学習モデルの構築、生成AIによる出力までを垂直統合的に行える事業者が有利になるでしょう。ただし、日本の生成AI事業者はサードパーティーが作成・収集したデータに依存していることは多く、Adobeのように自社でデータを収集しているわけではないことから、不利になることが予想されます。
――著作物そのものについては見かけ上の違いはなくとも、人間が手がけた作品と、生成AIが出力したものを同じ土俵で考えていいのかという疑問も出てきます。
日本の著作権法では、人間が創作したものは著作物になりえますが、AIが作った作品などは著作物にはなりえません。しかし、AIが間接的に人間の創作活動に影響することはありえます。例えば作曲の場合、延々と稼働できるサーバーを持っている人が生成AIに大量の音楽を作らせたとしたらどうなるでしょうか。
コード進行などは文章よりも制限がありますから、短期間のうちにあらゆるタイプの音楽を生成し尽くしてしまうかもしれません。もしこうした方法で生成した大量の楽曲が次々に著作権登録されることになれば、今度は人間の創作が制限されることにもなり得ます。
逆にAIが生成した作品を人間が改変したときに、その改変に創作性があれば著作物になることがありえますが、その程度はまだみえていません。
ここでさらなる問題が浮上してきます。それは「僭称(せんしょう)」の問題で、「実際には生成AIが出力したものを、人間が創作したと嘘の主張をする」ケースです。これは外部からは判別が難しく、生成AIを駆使できる立場の者が大量の楽曲を生成して、自分が作曲したとして次々にJASRACに音楽著作権登録をするような事態を想定しておくべきですし、すでに起きているかもしれません
――EUやアメリカなどでは、AI規制の法律整備が進んでいます。2023年12月にはEUで生体認証技術の利用に関する制限やAIが出力したコンテンツの場合はラベル付けすることなどについて定められた規制法案が大筋合意となりました。
EUはかなり早い段階からAIの規制について議論を重ねてきています。また、欧州はホロコーストを経験したことから、「AIなどの情報処理技術が個人の判別や評価に使われることで差別につながる」可能性に、強い警戒心を持っています。そのため、AI規制については以前から、個人情報の取り扱いを中心に丁寧に議論を重ねてきたという経緯があります。この規制法案が国際社会におけるAI法の基準になる可能性が高いです。
一方で、AI規制に求められる範囲は生成AI以前と以後では様変わりしたと言えます。生成AI以前は、AI技術やAIを組み込んだ製品の安全性、例えば自動運転車の安全性などに関心が置かれていましたが、生成AI以降はAIの利用の仕方にも比重が置かれるようになっています。これはChatGPTやMidjourneyのような生成AIの利用が一気に広まったことで、専門家以外の一般の利用者も手軽にAIを使えるようになったことが大きく影響しています。
しかし、EUのAI規制は「議論が先行していたがゆえに、生成AI以降の新しい懸念についてはカバーしきれていない」という問題も見え始めています。もちろん、法案ができる前に生成AIについても条文を追加したのですが、規制のベースが「AIリスクに基づく製品安全」に置かれているので、生成AIの広がりに応じて、今後さらに大きな改正をしなければならない局面も出てくるのではないでしょうか。
――「AI規制」というと、「イノベーションを阻害する」「規制せず、自由にしておくことでビジネスも発展する」と考える傾向があります。例えば日経新聞は2023年12月20日、「欧州のAI法、革新を阻害 自縄自縛で投資家離れも」というフィナンシャル・タイムズの記事をあえて掲載しています。
規制が本当にイノベーションを阻害するか否かというのは実は難しい問題です。
よく例に出すのですが、1970年代にアメリカでは自動車の排ガス規制が設けられ、アメリカの自動車会社は対応に苦慮していましたが、Hondaを先駆けにして、日本の自動車会社がこれにうまく対応する車を生産したことで、アメリカ市場で日本車が地位を固めることができた、という経緯があります。これは排ガス規制に対して、日本のメーカーが相当な工夫、つまりイノベーションを起こしたことで成功した事例です。こうした例からも、「規制がイノベーションを生み出す」といえます。
一方、「規制は常にイノベーションを阻害する」という発想は、当時の米国の大手自動車会社の主張と同じです。その米国自動車会社がどうなったかを思い出してほしいです。
また、EUの例を見ても分かるように、AIのリスクや広がりを考えた場合、規制は避けられないのが現状です。となればAI規制に反対するよりも、規制に合ったサービスや製品を作る、つまり規制に対応できるイノベーションを進めたところがビジネス的にも勝つことになります。インターネットにおけるサービスは海を越えて利用されますから、EUならEUの規制に準拠していなければサービスを提供することもできません。
――日本の生成AIサービスが海外で使われることを考えた場合、法的にどのような点に留意すべきでしょうか。 EUは事前規制を採用しているため、そもそもの縛りがきつくなりがちです。ただしEUでは法律を守っている限り、訴訟費用などはある程度、抑えられるといえます。
一方、アメリカは事故規制、判例主義を採用していますから、「問題が起きてから対応する」ことになります。そのため、サービスの提供者はアメリカではチャレンジはしやすいものの、問題が生じた場合の訴訟費用は莫大で、損害賠償請求となれば膨大な額を請求されることになりかねません。
ただ、アメリカのAI規制も最近は自主規制ではなく、政府が法整備を主導するハード・ローのスタイルに近づきつつあります。特に生成AIはフェイク情報の生成にも使えるため、選挙への影響が大きい。アメリカは民主主義を体現した国家であり、「生成AIが民主主義を脅かす」ことになれば、さらなる規制が進むでしょう。2024年は米国だけでなく、各国で大きな選挙があり、AIによるフェイク情報による選挙への影響の程度が、今後のAIへの規制の程度を決めるのではないでしょうか。
日本が生成AIサービスの提供者となる場合、こうした各国の規制の動向を踏まえたうえで、これに抵触しないようなサービスや技術を編み出すことが重要になるでしょう。むしろこうした規制をクリアできないサービスは広がりがありませんから、「規制は悪」と決めつけるのではなく、規制に対応するためのイノベーションは必要であり、規制がイノベーションを生み出すぐらいの発想を持つべきだと思います。