Participant Profile

852wa (Hakoniwa)
AI Art DirectorHas worked as an illustrator and video creator since around 2010. Also has experience as a game developer and has been devoted to AI technology since the summer of 2022.

852wa (Hakoniwa)
AI Art DirectorHas worked as an illustrator and video creator since around 2010. Also has experience as a game developer and has been devoted to AI technology since the summer of 2022.

Komei Sugiura
Faculty of Science and Technology Professor, Department of Information and Computer ScienceCompleted the doctoral program at the Graduate School of Informatics, Kyoto University in 2007. Ph.D. (Informatics). After serving as a principal investigator at the National Institute of Information and Communications Technology, became an Associate Professor at the Faculty of Science and Technology, Keio University in 2020. Has held current position since 2022. Specializes in intelligent robotics, deep learning, etc.

Komei Sugiura
Faculty of Science and Technology Professor, Department of Information and Computer ScienceCompleted the doctoral program at the Graduate School of Informatics, Kyoto University in 2007. Ph.D. (Informatics). After serving as a principal investigator at the National Institute of Information and Communications Technology, became an Associate Professor at the Faculty of Science and Technology, Keio University in 2020. Has held current position since 2022. Specializes in intelligent robotics, deep learning, etc.

Takahiro Yakoh
Graduate School of System Design and Management ProfessorKeio University alumni (1989 Faculty of Science and Technology, 1994 Ph.D. in Science and Technology). Ph.D. (Engineering). After serving as an Associate Professor at the Faculty of Science and Technology, Keio University, has held current position since 2023. Specializes in coding theory, computer networks, etc. Representative of the AI and Advanced Programming Consortium (AIC) at Keio University.

Takahiro Yakoh
Graduate School of System Design and Management ProfessorKeio University alumni (1989 Faculty of Science and Technology, 1994 Ph.D. in Science and Technology). Ph.D. (Engineering). After serving as an Associate Professor at the Faculty of Science and Technology, Keio University, has held current position since 2023. Specializes in coding theory, computer networks, etc. Representative of the AI and Advanced Programming Consortium (AIC) at Keio University.

Koji Okumura
Graduate School of Law ProfessorGraduated from the Faculty of Law, Kyoto University in 1991. Completed LL.M. at Harvard Law School in 1998. Specializes in copyright law and corporate legal affairs. After working in the legal department of an electrical manufacturer and as an Associate Professor at the Faculty of Business Administration, Kanagawa University, has held current position since 2013.

Koji Okumura
Graduate School of Law ProfessorGraduated from the Faculty of Law, Kyoto University in 1991. Completed LL.M. at Harvard Law School in 1998. Specializes in copyright law and corporate legal affairs. After working in the legal department of an electrical manufacturer and as an Associate Professor at the Faculty of Business Administration, Kanagawa University, has held current position since 2013.

Yuko Kimijima (Moderator)
Faculty of Law ProfessorKGRI DirectorKeio University alumni (1989 Faculty of Law, 1996 Ph.D. in Law). Ph.D in Law. After working as an attorney since 1992 and as an assistant in the Faculty of Law, became a professor in 2012. Completed LL.M. at George Washington University Law School in 2005. Specializes in intellectual property law, innovation, and law.

Yuko Kimijima (Moderator)
Faculty of Law ProfessorKGRI DirectorKeio University alumni (1989 Faculty of Law, 1996 Ph.D. in Law). Ph.D in Law. After working as an attorney since 1992 and as an assistant in the Faculty of Law, became a professor in 2012. Completed LL.M. at George Washington University Law School in 2005. Specializes in intellectual property law, innovation, and law.
(出席者)
「ChatGPT」の仕組み
本日は、現在、非常に早いスピードで普及している生成AIと知的財産権にかかわることを中心に、皆さまとお話ししていきたいと思います。
今、「ChatGPT」について、テレビをつけても、ネットを開いても、毎日のように議論が行われています。これまでの言語処理に比べると非常に自然な文章が出てくるということで、ものすごいスピードで世界的に普及しています。
これは便利だというポジティブな評価の一方で、AIを教育の場でどの程度使うべきかなどについては論争中で、子どもの成長のためには12歳まで触れさせないほうがいいという意見もあり、議論が巻き起こっています。
一気にAIの技術が身近なものになってきましたが、研究者としてこの技術の開発にずっと取り組んでこられた杉浦さん、ご自身のこれまでの研究と、現在のAIができる技術について、ま ずご紹介いただければと思います。
私の専門は知能ロボティクス、機械知能、深層学習です。私は3年前まで国立研究所で音声翻訳も研究していました。音声翻訳はかなり昔から研究されているAIの分野ですが、今は音声翻訳ソフトがスマホに入っていることを知らない人がいないぐらい、一般的なものになっているかと思います。
人間を凌駕するAIもたくさん出てきています。クイズを解くもの、ゲームなどは、人間のチャンピオンを超えています。また、平均的な人と同等以上ということであれば、機械翻訳、音声翻訳は30言語以上できますので、普通の人より優れていると思います。
画像の認識技術も、精度は向上してエラーはどんどん減っており、2015年あたりに人間の認識よりも精度が高いものが得られています。さらにノーベル賞を取れるAIを作るというチャレンジングな研究もあります。
このような人間を凌駕するAIが出てくることは人間にとってどのようなプラスの側面があるかというと、1つには、囲碁の棋士などがAIを使って練習を繰り返し、強くなります。2017年に「AlphaGo」が囲碁のチャンピオンを破ったのですが、それ以降、棋士のスコアが急激に上がっているという研究結果が今年報告されています。AIを練習に使うことで人間のスキルが上がることは様々な分野で見られます。
大規模言語モデルについて少しご紹介します。話題のChatGPT は2022年11月に発表された対話的に文章生成を行う大規模言語モデルです。今年の3月にはGPT-4が出て、これは米国統一司法試験において、上位10%と同等のスコアが取れるレベルになっています。
仕組みは「言語モデル」と呼ばれるものなのですが、やっていることは簡単で、次に来る単語を予測するだけです。例えば「むかしむかしあるところに」の次に、「おじいさんがいました」というのはありそうですが、「おとうさんがいました」は違和感がある。つまり実際の文章の中で発生する確率が違います。大量のテキストデータを読み込み、頻度を学習し、次に出てくる単語を精度よく予測する。これが言語モデルのやっていることです。
この言語モデルからChatGPTのようなプログラムが生まれるというのが、われわれ研究者にとっても非常に驚くべきところです。
また、ChatGPTは、お使いいただくと、毎回同じ文章が出てくるわけではないことがわかると思いますが、ランダムな要素を少し入れることで全く違う文章を出すことができます。このような枠組みで言語モデルはできています。
画像生成AIの進化
よくわかりました。次にAIアートディレクターとして画像の創作をされ、AIの技術をまさに実用化されている852話さん、創作の中で直面していることなどをお話しいただけますか。
画像生成AIというモデルで言えば、去年の7月にMidjourneyというサービスが出て、とても話題になりました。
このサービスは、「テキスト・トゥー・イメージ」という形態を利用しています、つまり、文字を入力すると、それが画像になって出力されるモデルです。例えば「花・女の子」と入れたら、花と女の子の画像が出力される。元のモデルとして億単位の大量の画像を学習させ、ベクトルの形にして特徴を覚えさせたものがデータの塊としてあり、その中からテキストで入力した情報と近似した特徴を拾い上げ、画像生成して出力する、と考えればイメージしやすいと思います。
Midjourney が出てきた時、それまでの画像生成AIのシステムとは比べ物にならないクオリティーで、クリエイティブな画像が生成されたので大変な話題になりました。「え、これ、人間がつくったんじゃないの?」というクオリティーの画像がどんどん出力されるようになったわけです。
それで、もしかして今までクリエイターの人たちがつくった商業的な画像を、つぎはぎしてコラージュしているのではないかというイメージが一般に広がり、問題になったのですね。
基本的にはAIのモデルのデータの塊の中には画像そのものは入っていません。ここに線があったら人間は気持ちよく感じるといった概念的特徴や、杉浦さんが文章生成で説明されたように、ここに線があったら、次にこの色がくるといった「お約束」をモデルが覚えるのです。基本的に、言語モデルの仕組みとそれほど変わらないのです。
でも、画というのは、ピクセルの塊なので、並ぶとわからないので、結果、既成の作品を切り貼りしたのではないかというぐらい、精度の高いAIによる画ができてしまう。アートには、これまで人間によるオリジナリティーや技術、創作活動が強くかかわっていたと思っていたのに、機械がそれを何のことはなく瞬時にやってしまう。
なので、これはもしかして人間が創った画像がコピーされていたり、つぎはぎしているのではないかという疑念が生まれて問題になったりしています。もともと、何で勝手に私の画が学習されているのかといった心情的な問題もあり、クリエイターの方々は複雑な感情を抱えているのです。
AIを使って創作している方はどのようにやっているのでしょう?
「プロンプト」という文章で指定をして、ランダムに何百何千と出した画像の中から1枚を選び取る方と、頭の中にある想像した画像を思い通りに出力するために、棒人間(手足を棒のように表現したキャラクター)でポーズをとらせ、それにAIの画像を合わせていく手法を取っている方の2種類がいます。
この2つは創作活動としては別物だと思うのですが、出力される画像は見分けがつきません。どこに創作的活動の部分があるのかは、すごく難しいところだと思います。私はどちらの手法も取りつつ画像を生成しています。
852話さんの画集を拝見しましたが、非常に素敵なイラストで、一部は、こういうプロンプトを入れたと紹介された上で画を出されている。「この言葉を入れるとこういう画が出てくるのか」と思い、感心しました。
クリエイターの方は創作活動の中でどういう形でご自分の表現を加えていくのでしょうか。
頭の中にあるイメージをAIに指示する際、画像を指示データとして与える「イメージ・トゥー・イメージ」というやり方もあるのです。つまり、似たような画像を出して指示を与えることができます。それは完成した画でもいいですが、棒人間で、こんなポーズを取ってほしいという指示画像でもいいわけです。
これは、テキスト・トゥー・イメージで、漠然と「太陽があって、ヒマワリがあって、麦わら帽子の女の子がいるのをつくって」と言う指示と、全然違うわけです。
ただこのイメージ・トゥー・イメージには問題があって、画像データであれば何でも指示できてしまうので、例えば他人の著作物でも指示画像として利用できてしまう。そして数値を操作することによってそれとかけ離れた画を出すこともできるし、ほとんどオリジナルと変わらないような画像を出すこともできるわけです。
ネット上で、自分のイラストが変えられたAI画像が出ていたなどと炎上して大騒ぎになる事例は、イメージ・トゥー・イメージで作成されているのでしょうか。
大体はその問題だと思われます。
AIに入れるデータの利用
もともとの教師データとかアルゴリズムがあり、そこに指示をする際に画像イメージで指示を入れる場合と、言語で指示を入れて画像を作成させる方法があるのだとわかりました。その中で知的財産権に関して、問題視されることが実際に起き、アメリカでは実際に訴訟も起きています。
日本では、AIに入れるデータの利用に関して著作権法はどのようになっているのか。奥邨さん、ご説明いただけますか。
日本ではもともとテキストマイニング、データマイニングのための権利制限規定がありました。辞書を作る際とか、写真の顔認識技術を開発したりする際などの情報解析のためであれば、必要な範囲で他人の著作物をコンピューターで無断で利用できるという規定です。
この規定そのままで、AIの深層学習に適用できるかについてはいろいろ議論があったのですが、平成30年(著作権法平成30年改正)に、機械学習全般を含む情報解析に際して、必要な範囲で他人の著作物を自由に利用できるという規定が整備されました。
そのため、日本では現在、AIに機械学習をさせるためであれば、ネット上のものも書籍も、入力=複製することについては著作権法上問題がないという状態になっています。そういう点から、日本は「機械学習パラダイス」とも言われ、世界で一番、明確かつ広く、機械学習に関して著作物の自由な利用を認めていると言われます。
ただ、以上は学習過程の話でして、生成過程を経て、今、852話さんがおっしゃったように、既存の作品とよく似たものがAIから出力されるケースについては、別の議論となります。
OpenAIのCEO、サム・アルトマンさんが来日され、日本にオフィスをつくりたいと宣言された理由の1つは、日本の著作権法が、機械学習について制限規定をきっちり設けているのでやりやすいからと言われています。つまり、訴訟リスクを減らせるという企業のメリットがあるのかと思います。平成30年改正がこういった事態を予測して立法されたとすれば、素晴らしいことです。
しかし、そうは言っても、データとして入れ込むなら何でもいいということではなく、著作権の制限の範囲内として許されるということです。著作権には複製権や公衆送信権等、様々な権利が含まれていますが、この制限規定はあらゆる著作権の行使に関して、原則として権利侵害にならない場合を制限列挙しています。同時に、著作権者の利益を不当に害するものであっては駄目だという例外も規定しています。
つまり、データを入れ込んだ結果として著作権者の利益が不当に害されたと法的に判断されると、その結論がひっくり返る可能性が残されています。そこをどう考えるかが、著作権法の解釈としては重要になってきます。
著作権の有無の判断はどうされるのか
アメリカでの例を1つあげると、去年の10月にGitHubのCopilotのフリーバージョンで起きた問題で有名なものがあります。
テキサスA&Mユニバーシティの教授が、自分が著作権を有するプログラムのコードがAIで生成されてしまうことを発見した。私は人間が書いたコード、AIのコードの両方を見ましたが完全に同じではないです。でも、コメントというプログラムの本体ではなく自分の考えを出すところが同じで、普通にこれを見たらかなり類似している。ですからこの教授の意見は確かにそうかなと思っています。
プログラムも自分の頭の中にあるものを随時出していくやり方で使われることも多いので、いきなり全部が生成されることはなく、1つずつプロンプトで命令していきます。なので大規模な、例えばあるゲームをつくる場合は、その人間の意図がはっきりしていないとコードはつくれないのが現状です。
どこからが著作物に当たるのかを、ぜひお聞きしたいと思います。完全に一致していないけれど、似たようなものとプログラマーが考えるものが生成されてしまった場合、どうなのか。
また、仕様書と呼ばれる部分に近いのですが、人間の考えをインプットでプロンプトで使った場合は、これはどこまでが著作物になるのでしょうか。
いわゆるプロンプトや命令として書かれた言語の著作物性ということですね。奥邨さん、いかがでしょうか。
プロンプトそのものを、著作権法上どう捉えるかはまだ裁判もないので、私見になりますが、AI=コンピューターに対する指令ですから、プログラムの著作物と位置付けることが可能だと思います。
非常に簡単なプロンプトだと創作性がないため著作物にはならないと思いますが、複雑なかなりの程度長いプロンプトは、プログラムの著作物と評価できると思います。
しかし、プロンプトと、出来上がった画像が1対1対応しているのであればまだしも、いろいろなバリエーションがあるとなると、プロンプトが直接、出力画像や文章を表しているということではない。そうなると、プロンプトの著作権を持っているからといって出力に対して著作権を持つとは言えなくなります。
なるほど。厄介なのがランダム性を入れることが簡単にできてしまうところです。そうすると出力されたものの見た目が結構変わってしまう。最後はやはり個別のケースで判断となると、人間が出力されたものを見て、これは著作権法上問題である、と判定していく形になるでしょうか。
そうですね。アメリカでMidjourneyを使って作成した漫画を著作権局に登録しようとした事例があります。これは「暁のザーリャ」(Zarya of the Dawn)事件と言いますが、作者が、特に説明なく申請して、最初はそのまま登録が認められたのですが、登録後に作者がSNSなどで、「Midjourneyを使ってつくった漫画が登録された」みたいにつぶやいたところ、著作権局が作成の状況を改めて調べて、先の登録は取り消されました。
その上で、漫画のセリフの部分は作者が自分でつくったので著作権登録を認める。しかし、Midjourneyから出力された個々の画像については、登録を認めないと決定したのです。
なぜかというと、このケースではかなりアバウトなプロンプトを入力して何百枚も出力した中でイメージに近いものを選び出すようなやり方だったと著作権局は言っています。この場合、作品をつくる上での人間の貢献の程度は低く、この程度では人間が(AIを道具として用いて)著作物をつくったとは言えない、AIが自律的に作成行為を行っていると判断したわけです。そして、アメリカの著作権法は、人間以外がつくったものには著作権を与えないので、この場合も画像は著作権登録されなかったのです。
なお、作者は、AIが出力した画像に、自分で直接描き加えたりもしたとも主張したのですが、ちょっと色を塗ったとかのレベルでしたので、著作権局は、それでは不十分だと判断しました。
プロンプトが一定の影響を与えても、出力に関してランダムに委ねる部分が大きい場合、人間がつくったとは言えない、AIが自律的につくった、そういう考え方が示された訳です。アメリカのケースですが、日本でも大いに参考になると思います。
著作権法は、基本的に人間が創作活動をすることを対象にしています。日本の著作権法では、創作性のある著作物を創作した者に、著作者の権利が発生します。各国で制度は違いますが基本的な発想は同じです。AIを道具として使用し、創作活動をした場合、どこにどの程度人間が創作的な寄与をしたかで、それが著作物として著作者の権利の対象になるかが判断されるわけですね。
従来のプログラムの著作物の著作権侵害があるかどうかが争われた事例でも、プログラムが、コンピューターに対する指令として誰が書いても同じになるような単純な指令の組み合わせでしかない場合、あるいは複数の選択肢の中から1つの表現を選択したとは言えない場合は、プログラムとしては機能していても著作物としては保護されない、となります。
また、人が創作性を加えた表現の部分を模倣していると侵害になるけれど、そうでないところが似ているだけだと著作権侵害にならないというのが従来の基本的な考え方でした。これがプロンプトになった場合は、それがそのまま適用されるのか。プロンプトだと抽象度が高くなっているので、そもそも創作的な表現と言えるのかということから争われるケースが多い気がします。
その先に、いろいろな指令に基づいて生成画像ができ、著作物に見えるものが作成された場合、それが著作権法上、保護されるのか。奥邨さんが言われたように、人がどのように創作的に関与しているかを見た上で個別に判断するのか、総合的に判断するのか。基本的には人の創作的な寄与が表現に反映されているかどうかを基準に、生成物が著作者の権利の対象になるかどうかを判断します。
そうすると、例えばプログラムをわれわれは書くのですが、後で訴えられないためにプロンプトを保存しておくことも重要ということですか。
そうなるかもしれません。
「AI生成物の著作物性」とは
先ほどの「暁のザーリャ」事件のように日本とアメリカは著作権の根本が違います。著作権が認められた作品が著作権を得るというのがアメリカの著作権の考え方です。一方、日本は、つくった時点でその人に著作権があるということになると思います。
現状、AIが出力した、そのままの「ポン出し」を著作権があると認めるのはなかなか難しいとは思います。その著作権のないAIの画像に対して、例えばどのくらい画面に対して変化を与えたら著作権が発生するのか。先ほどちょっと色を塗っただけだと創作活動として認められないと言われましたが、これは今、クリエイター皆が一番気になっていることだと思います。
ただ、それは割合では判断しづらく、結局人間が、これはOK、これは駄目という感じでジャッジするしかないのかと思いますが、それを判断する法的な立場の人も判断はすごく難しいのではないかと思うのですが。
AIが関与しない表現物に関しても、著作権法上保護される著作物と言えるかどうかの判断は、ありふれた表現で一定の作成者の個性が表れているかどうか微妙なケースでは、これまでも争われています。AIが道具として入った場合も同じことが言えます。
著作権法では、著作物とは「思想又は感情を創作的に表現したもの」になります。そのような表現行為は人が行うものというのが従来の考え方なので、その解釈はわれわれ社会の人たちが行い、法律上、著作物と言えるかどうかの判断をするわけです。最終的に紛争になった場合は裁判官がそれを判断し判決をする。紛争の当事者間ではその判決が強制力を持つ。これが現状です。
「AI生成物の著作物性」と言った時に、「あるか、ないか」の議論になりますが、正確ではありません。AIが全く新規につくったものについては、「あるか、ないか」でよいですが、既存のものを一部取り込んでいるような場合には既存の部分は他人のものとして、著作物性は「ある」のです。
AIがつくったら既存のものが入っていても著作物性がなくなってしまうわけではない。新しくつくった部分と、既存の部分の組み合わせの場合、分けて考える必要があります。この点は、AIの登場による新しい問題ではなく、人間が既存のものを組み合わせたときと同じです。
852話さんがおっしゃった「ポン出し」でも、全く今まで存在しないものをAIが自律的につくったのであれば、全く著作権がないです。これに852話さんが手を加えた時に、個性が表れている部分があれば、その部分にだけ852話さんの著作権があることになります。
もしAIから出たポン出しのものが他人の既存のもののコラージュ的なものだと、既存の部分は、当然その作者に著作権があることになる。そこに手を加えたら、侵害物に手を加えてしまったことになる。
また、「何パーセントか」ということはなかなか難しく、従来から言われているように作者の個性が表れているかどうかで説明していくことになります。
スタイルと表現をめぐって
オマージュ、コラージュ、リスペクトというのは、今までの対人間の作品群でもあったと思います。単純に画像を用いて画像を生成する。だから他人の著作物を用いてAI生成物を出した時に、既存の著作権が残るのは理解できます。
ただ、基本的に今モデルとして画像を学習させるという一番初期の段階は法律上、別に問題ないわけですが、それを用いて出した画像は著作権が元に戻っているという話なのですか。
モデル自体は画像そのもののデータは入ってなくて、概念的なデータとかベクトルとしての、数字としてのデータが入っているという話で、ピクセルとか画の線そのものが入っているわけではない時、その著作権はどこに入っているのかが非常に気になります。
例えばある図形の表現をベクトル・データ化しても複製は複製です。データの持ち方としてピクセルなのか、ベクトルなのかは、同じものが再製されるのなら差はありません。データを、アナログで持つのとデジタルで持つのと、どちらでも一緒だというのと同じ話になります。
問題は、表現をどこまで抽象化して人工知能が理解をしたのかということです。
再現性がどれぐらいあるかという話になりますか。
再現性は結果的な問題となります。どうやって、出力ができあがったかの過程・仕組みの話がポイントです。AIは、画のスタイル・画風のところまで抽象化されたものを持っていて、それに基づいて描いたので、似た絵になったと説明ができるかどうかです。
これは技術と法律の両面からの評価の問題になります。技術的には元の画そのものは持っていないといっても、その法的評価として、結果的に元の画が何らかの形で残っているとされることもあり得ると思います。
例えば、「ピカチュウ」と言葉で指示して、ピカチュウとそっくりな画が出てくる場合、そのAIが画像としての「ピカチュウ」を持っておらず、あくまでもピカチュウの概念を抽象的に理解し、同じものがたまたま出てきたのだ、と証明することは難しいと思います。ピカチュウという言葉だけからあの具体的な画は出てこない。あの画そのものを人工知能が覚えていると評価されがちだと思う。
ところが「ポケモン」というものをいくつも学習させて、実際には存在しない「カーネーションポケモン」をつくれと指示したら、画が出てきた。それが、後に公式につくった「カーネーションポケモン」に似ているという場合は、ポケモンに共通するスタイルを身に付けただけであって、それに基づいて描いたら偶々似ていた、ということになるんだと思います。
人間でも、何々風の絵を描く人はいっぱいいますが、それがOKか、アウトかは、事例毎に考えないといけません。
例えばドラえもんの絵かき歌みたいなのを覚えた、というような概念はどうなんでしょうか。
全く同じドラえもんの画が出てくると、概念を覚えたのではなく画を覚えたんでしょうと裁判所に判断されがちだと思います。ただ、概念は一緒だけど学習したのとは全然違うドラえもんの画も出せるのであれば、それは概念を覚えたのだという説明がしやすくなると思います。
Under copyright law, the basic rule is that it is permissible to imitate a style, but specific expressions must not be imitated without permission.
Therefore, no one can monopolize a style, such as an Impressionist-style way of painting or pointillism. This is because allowing such a monopoly would prevent humans from expressing themselves freely. In contrast, if someone paints a picture that resembles the specific expression of Monet's Water Lilies, they are imitating a specific expression, and during the duration of the copyright, it constitutes copyright infringement (unless it falls under copyright limitation grounds such as private reproduction).
So, even if AI is involved, whether or not copyright infringement occurs is ultimately determined by whether the outputted image or program is judged to have imitated a specific expression based on current thinking.
A famous deep learning textbook actually contains an example of learning Pokémon images to generate Pokémon that do not actually exist.
In terms of whether it is advantageous or disadvantageous for the defendant, I think it would be disadvantageous if only Pokémon similar to existing ones are produced, and advantageous if new things in the style of Pokémon can be produced.
In the future, legal evaluations may differ between AI that purely learns style and "pseudo" style-learning AI that appears to be learning style but is actually just storing the images themselves.
Midjourney in the United States is currently being sued in a class-action lawsuit, and the plaintiffs argue that the AI is not learning style but is holding compressed versions of the training images. Once a conclusion is reached in this lawsuit, I believe a direction for what is safe or out may emerge.
In October 2022, Shutterstock, a service providing photos and illustrations, announced that it would provide AI image generation tools through a partnership with OpenAI. At that time, they stated they would create a system to pay compensation to the authors of the original image data. I believe this is precisely an effort to avoid litigation risks.
Shutterstock's regulations state, "Contributors will be compensated for the role their intellectual property played in the development of the original models." Will the legal definition of what constitutes a "role" and how it should be correctly divided be decided from now on?
I think that if a generated image is compared with an image claimed to be the original, and it is judged that the generated image utilizes the creative expression parts of the original image, then the expression you just mentioned would be deemed applicable.
It means they created the terms beforehand to prevent lawsuits from occurring, right? Probably the final layers of machine learning contain quite specific data, so the rights of the original authors are likely included there. Since there is a possibility of losing if sued for copyright infringement for using that, I think they created a system to pay a certain amount of money in advance.
If, for example, this kind of approach is deemed legally correct, it would also serve as an incentive to develop AI that can calculate such models and roles.
Are AI and Human Creations Different?
In conventional judicial precedents, whether a work is being used or infringed upon has been judged by humans somewhat intuitively, determining that creative expressions of a work are being used. However, as image processing and language analysis technologies continue to advance, it has become possible to analyze what percentage of an image's expression is being used, if one wished to do so.
However, to what extent that should be done is a very large issue. Even in human creative activities, it is rare to create an expression from absolute zero that resembles nothing of the works of predecessors. From childhood, we read various novels, watch movies and images, and listen to music; that accumulated data becomes, in a sense, training data, and we use our brains and hands to engage in creative activities.
If so, comparing human creative activities with AI, must we judge only AI in such extreme detail? Despite having a convenient tool, if using AI becomes more troublesome and requires paying money, it will ultimately hinder the development of human culture and industry.
Therefore, to what extent should we protect the rights of original creators and ensure their financial interests, and from what point should we encourage free use and new creative activities through collaboration between humans and AI? This will be a very difficult judgment.
One thing to be careful about in discussions regarding "creation" using AI is that the discussion of under what circumstances one is considered to have "created" using AI may also reflect back on when humans engage in creative activities. The criteria for what constitutes creation apply both when using AI and when humans create using traditional methods.
Currently, I see some quite harsh critical opinions regarding creation using AI, but in fact, that blade is also pointed at humans when they create.
Until now, copyright law has discussed things in a rather vague way on the premise that humans are the ones creating. However, with the advent of AI, we have to think more deeply about what creation is, what is style, and what is expression. Humans cannot actually distinguish between style and expression that well, so until now, we have understood them by pulling them toward the side of expression. But AI might be able to draw a sharp line between style and expression.
Also, while it is possible to create an AI that judges whether things are similar, to what extent should we use it? How far should we go? I think various things that need to be discussed are starting to happen. I'm not sure if being too rigid would make everyone happy.
Copyright is a relative exclusive right. In other words, the concept of copyright law is that if you create something similar by relying on someone else's work, it constitutes copyright infringement, but it is fine if the expressions happen to be similar by chance.
While everyone freely engages in creative activities, there are countless similar paintings and similar novels. Until now, we have judged this somewhat vaguely, saying it's fine because they just happened to be similar. The question is what should be done when AI enters the picture.
Creativity of Inventions Using AI
The topic of copyright alone is inexhaustible, but I mainly research patent law, and as AI becomes capable of making inventions, there is a similar discussion about whether they should be protected under patent law.
Currently, I believe the field where AI is used to make technical inventions is primarily programming. Besides that, the use of AI is likely advancing in the field of drug discovery.
Unlike copyright law, patent law protects ideas. Coming up with a specific means to solve a technical problem is the idea itself, and that is what is protected.
Mr. Sugiura mentioned that he uses AI for programming; to what extent can AI possess creativity? In particular, can AI be used in terms of solving technical problems?
In January, I had students do programming using ChatGPT in my class. For beginners, it is important to be taught things they don't understand one by one according to their individual level, and in that sense, I think ChatGPT is a revolutionary educational method. For deep learning programs, it is actually possible to generate simple parts, and you can ask about parts you don't understand step-by-step.
However, there are also difficult aspects. For neural networks, the number of parameters determines how complex the tasks they can perform are, but even if you ask how many parameters there are, it gives quite unreliable answers, which is not of a quality usable for experts.
I believe it is very useful under the condition that we verify elementary knowledge, but on the other hand, generating advanced knowledge is currently difficult unless the idea part is included in the prompt.
When a patent attorney actually writes a patent application document, they first explain what existed in the conventional technology. Then, they explain the invention by saying that the problem that could not be solved by that conventional technology has been solved in this way by the current invention. For conventional technology, if you perform an accurate search, you can pick up data from papers and old patent applications, and I think computers are likely good at the task of accurately summarizing those search results.
From there, is it still not possible to newly come up with a means to solve a problem that could not be solved before? I imagine an era will come when data analysis will allow for problem-solving that an average engineer would not immediately think of, if we continue to let AI learn more data on conventional technology.
The currently mainstream method called neural networks has parts that can be explained by the concepts of interpolation and extrapolation. Actually, neural networks are very poor at extrapolation. In other words, it is quite difficult with current technology to create knowledge on the outside that did not exist before.
Therefore, human help is necessary to create something essentially new. However, taking advantage of the fact that they are good at interpolation, if there was a middle ground between field A and field B that had not been captured as a patent until now, there is a possibility it could be discovered. I think there is a possibility that AI could come up with such ideas.
Regarding the talk of interpolation and extrapolation, if the space is very wide and only the ends exist as knowledge, there is a huge gap in between, so any number of variations can emerge. So, I don't think that just because it is only good at interpolation, new ideas will necessarily not emerge.
Another thing, which is an even older technology, is genetic algorithms, where humans provide variations in advance, saying they want a combination of this and that, and then decide how much to blend them. With something like that, discoveries can probably be made endlessly, and using them to control robots has been done frequently for a long time.
Applying that technology to the field of chemistry would enable things like new drug discovery. I think many people are doing that now. The human who set that up is the one who is great, and I believe it can be captured as an invention.
That's true. For example, it has always been the case that once one important study is conducted, many peripheral studies occur the following year. In that way, if a human creates just one point, it is possible that AI could fill in everything near it.
How to Think About an AI-Premised Society
Then, if an era comes where AI handles the interpolation parts thoroughly, will an environment emerge where humans can concentrate on creative work and more advanced inventions are likely to be born?
Yes. For example, I mentioned the level of Go players earlier, and I think a form where human inventive power increases by using tools is also conceivable.
That is exactly what I expect as an educator. When we think about the task of writing papers in the humanities, we read through conventional papers written on the subject, summarize and analyze them, and then add our own considerations to produce new insights. We will be able to have AI help us with such tasks.
If we can leave it to AI, we will be able to save a lot of time where we are currently struggling to read through a large volume of predecessor's papers and judicial precedents. As a result, I think humans will be able to concentrate their time and effort on the part of what to think from there.
From the standpoint of education, I always try to teach students to "just master using AI." It is always better to be able to use tools, and it is inefficient to do everything by hand calculation without even using a calculator now. Similarly, use whatever is available. I think there is no problem at all in using it to improve oneself; rather, it should be encouraged.
It is nonsense to turn in a ChatGPT text as a report as is, but like the Go story earlier, I think it should be actively used to improve oneself while interacting with AI.
I agree; AI is a tool, just like a pencil or a dictionary. If it is a tool, one way of thinking is to teach its proper use.
On the other hand, if AI can get passing scores on several certification exams in the US, it may become difficult to judge human performance based solely on reports of similar difficulty. Will it be socially acceptable in the future to only give grades based on reports for problems that can be solved by AI? I think this is something we also need to consider.
Since Google was born, searching has become a major premise for writing papers. However, there are people who are good at searching and those who are bad at it. When I provide thesis guidance, there are people whose ideas are unique, but perhaps because they are bad at searching, the things they have collected are off the mark. However, from now on, AI may support them and the "bad at searching" person may disappear.
But if that happens, levels that can be immediately reproduced by AI will no longer be valued. Even in inventions, parts that seem possible with AI will be said to lack inventive step. From now on, the difference will be whether or not one can do the "plus alpha" part after using AI.
You mentioned that the level of inventive step will rise. When we consider why works and inventions are protected by intellectual property law in the first place, one idea is that for the results of creation, a certain reward should be given to the person who created them, and that person has the right to be treated preferentially for a certain period.
Another major factor is to connect newly created things to social implementation, thereby enriching society and making life more convenient, or allowing for wonderful cultural experiences. There is also an aspect of protecting them for such reasons.
Particularly in the field of patent law, which aims for industrial development, it is not the case that society becomes rich as soon as an invention is completed. In order to make it usable in society, there is a process of further years of research and development, commercialization, and popularization, and only then is it realized in society.
Then, if we only have the idea that "we protect it because a human created it," it would lead to the conclusion that if it can be done automatically by AI, we don't need to protect it. But it is also important to create incentives to invest time and money to implement created things in society. Therefore, the conventional thinking of not protecting something because it is a creation of AI alone will need to be reconsidered.
AI and University Education
Even if we let AI analyze and parse conventional papers and data, humans still need to do the creative parts. In this context, how should we educate the next generation of young people within Keio University, a research and educational institution? Or what kind of research environment should we prepare? I would love to hear your opinions.
Mr. Yagami, you have seen the efforts of the AI Consortium from the beginning. Could you briefly introduce it?
It is called the "AI and Advanced Programming Consortium" (AIC). About 10 years ago, AI became a topic in various places, and students who sensed this sensitively said they wanted to learn about AI.
But for example, there are no machine learning classes in the Faculty of Law. So, we gathered students interested in AI across the boundaries of humanities and sciences and created a place of learning within a place of learning where they could learn from each other.
There, since the main focus is on skilled students teaching other students, we, the faculty members as support staff, focus on creating the system rather than teaching. But as students interact with each other, perspectives and ideas unique to students that faculty members would not think of are emerging, so I feel glad we did it. It is now in its fifth year and continues its activities.
That is a wonderful initiative. On the other hand, for places of voluntary student activity that do not grant credits like the AIC, I think highly conscious students will come, but students who are not so conscious and take classes just because they earn credits probably won't go there.
I think there are many students who are not that highly conscious but actually have very high potential, so I always worry about how to educate them.
It's difficult. The AIC has not given credits so far, and I think it will be difficult to give credits in the future. To give credits, it must be authorized as a university and recognized to some extent by the Ministry of Education, Culture, Sports, Science and Technology. This is because it is currently a framework where students teach students.
For now, I think it's fine to focus activities on "edgy" students who want to do it even if it doesn't result in credits.
Mr. Sugiura, you are actually running an AI research laboratory. What kind of innovations are you making in terms of education?
When I was a student, AI research was not something you could get a job with; it was a field that some students engaged in simply because it was fun. But now it is used in various applications, so many students are interested.
A major change in undergraduate education is that from this academic year, a neural network course has opened in the "Basic Science and Technology Experiments" subject, which most students in the Faculty of Science and Technology take.
There, if we convey that there are interesting technologies in a practical format, I think the number of students showing interest will increase. I want to expand to more human resources while at the same time working deeply on specialized content.
Will education in the field of law change at all?
Currently, American judicial precedent search services all tout AI implementation as a selling point. Also, in Japan, AI is becoming a key point in legal tech. Mastering AI as a tool is something we must also do in the legal field.
Also, we are in an era where new content that fuses content and tech, exactly like that of 852wa-san, is being created one after another. Therefore, to study and research intellectual property and copyright, even if they don't understand the technology itself, I think the number of young people who take an interest and find it fun to work on must increase.
For my part, although I cannot teach the technology itself, there are new movements in the world and new troubles are occurring. I hope to attract students' interest by showing them in real-time how legal studies respond to these things. Since young people will become able to use new technologies more and more, I want to enable them to work with ideas we cannot even imagine, even in legal studies.
There are very many students who want to do intellectual property law because they are interested in content. Such students, even if they are in the Department of Law, have various special talents, such as liking painting or music, or doing programming. Traditional legal study is basically about mastering the Six Codes, such as the Constitution, Civil Law, and Criminal Law, systematically and thoroughly, but there are students who are not necessarily happy with the conventional educational system, and in fact, they might be the majority.
Does that mean those students have no talent? Not at all. Being interested in new phenomena, liking content and games very much, and wanting to work in that industry becomes the motivation to study law. Also, I feel there are various educational possibilities, such as students who entered the Department of Law but want to go to the Faculty of Science and Technology to be taught from scratch, or want to do two specialties with a double degree.
When new things come out, we should leave what can be left to AI. Beyond that, I sometimes think it would be good if we could raise students who can come up with ideas on how to solve legal and social problems based on basic knowledge.
That's exactly right. Currently, AI has come to be used by a diverse range of users. However, the side that creates AI is still biased toward information systems, so I think the part where we discuss with various experts such as those in law is important. As an educator, I would be happy if various students could take an interest.
The other day, I held this year's guidance for the AIC, and there was a very energetic second-year student from the Faculty of Law, and we talked for a long time after the guidance. They were already using not only ChatGPT but also image generation AI.
The fact that there are students for whom conventional teaching methods do not fit is, in trendy terms, a kind of diversity. Considering that Keio University should properly raise diverse students, I think we need to make it possible to provide individual education for each person, rather than just teaching with a rigid curriculum.
To that end, I believe we should shift to a teaching method where we communicate more closely with students, grasp their hopes for what they want to do in the future, and skillfully provide the educational power that faculty members possess.
Respecting the Wisdom of Predecessors
From 852wa-san's perspective, if you have any requests for university education, please let us know.
In generative AI communities and elsewhere, there are junior high and high school students who are technically writing programs to run AI models or actually managing communities.
I believe that strengthening the field of AI at universities from now on will be very beneficial for the futures of those children. Precisely because it is a technology that can be accessed for free, it is spreading widely among the digital native generation. Even in apps like TikTok, AI conversion is very popular in the image and video fields, and it is becoming more of a daily occurrence for them than adults might think.
The younger generation feels it is very close to them, routinely saying things like, "This technology or this app is interesting, right? I know, right?" I even receive real feedback from students who used to draw in junior high or high school but have become interested in the technical side, asking how they should go about learning it.
I believe that if educational institutions proactively prepare to welcome them, it will lead to a better future.
It is important for us adults to create places where the younger generation can play an active role and freely try various things. We should watch over young people warmly even if they fail. Society as a whole should teach them, suggesting things like, "Maybe it would be better if you did it this way," or "Doing this part like this might hurt someone." Or we should act together with them. If we can do that, then no matter how clever AI becomes, we will have a society where we can use it to lead even more enjoyable and prosperous lives.
I have one thought regarding intellectual property rights. I am not an expert on the law, but I believe the underlying philosophy is a tribute to the person who thought of it first.
Respecting and utilizing the wisdom of our predecessors is rooted in respect for people. Therefore, if AI-generated content clearly displays which parts use which person's ideas, AI might come to be respected, and respect for the original creators behind it can also be expressed. I hope to see generative AI emerge that makes it visible whose ideas are behind the output.
In waka poetry, there is a concept called "honkadori" (allusive variation), where a work can stand on its own even if it borrows from the past, provided there is respect for those who came before. I believe we must properly teach students to respect the wisdom of their predecessors.
That's true. Traditional social ethics, such as valuing others or respecting the work of others, may become increasingly important as technology advances.
Thank you very much for a very important discussion today.
(Recorded on April 17, 2023, at Mita Campus)
*Affiliations, titles, etc., are as of the time of publication.