2023年05月26日 10:21 弁護士ドットコム
東京大学の学園祭で、ChatGPTを裁判官に据えて近未来の裁判を描いた東大生の模擬裁判が5月13日に上演され、来場者らによる投票でアカデミー部門の2位になるなど高く評価された。
【関連記事:セルフレジ万引き横行、「もやし」スキャンで和牛持ち去る 監視カメラより「声かけ」が重要】
翌14日には、有識者らによる「AI時代の倫理と法を考えるシンポジウム」が開かれ、有識者らが「AIに裁かれて納得できるか」などについて考えを語った。
メディア・ジャーナリズム研究の田中瑛さん(九州大学大学院助教)は、「『ドラえもん』があるからロボットについて色々と考えることができるところがある」と述べ、フィクションを通して考えるきっかけをつくったという点で、AI模擬裁判は「良いジャーナリズムだった」と評価した。
科学技術社会論を専門とする江間有沙さん(東京大未来ビジョン研究センター准教授)は、模擬裁判で面白かった点として、「AI裁判官は公平だし、パッと判決を出してくれるかもしれない。でも、それで納得できるのかなということを思った」という。
「これまで観客はスポーツの審判に対して、相手寄りだとか、ブーブー言いながら楽しんでいた。それがこの間のサッカーW杯では、VAR(ビデオ・アシスタント・レフェリー)が導入された。答えがすぐ出て、誰も反論できない。あれを受け入れられるかどうか。同じように裁判官もAIがやったほうが利があると、みんなの意識が移動するかどうかが肝になってくるのではないか」(江間さん)
これを受けて、身体情報学の稲見昌彦さん(東京大先端科学技術研究センター教授)は、野球のキャッチャーがボール球をストライクのようにみせる「フレーミング」という捕球技術を例に挙げた。
「メジャーリーグでもストライク・ボールを機械判定するかという議論があった。ただ、フレーミングをアート(技術)と捉え、観客もピッチャーもバッターもそれをストライクだと認識するなら、そっちのほうが野球は面白いということになった」(稲見さん)
同じ判定でも、人々が求めるものは必ずしも「正確さ」だけではないということだろう。
そもそも、「人間はあいまいで機械は正確」という対比のイメージにも問題があるという。田中さんは「AIも間違いうる。AIを使えば客観的な間違いのない司法裁判ができるという考えかたも批判的に検討していく必要がある」と警鐘を鳴らした。
納得という点について、稲見さんはAIを使えば「納得のカスタマイズ」はできるかもしれないと語る。たとえば、学生を指導するとき、同じ内容のアドバイスをするにしても、伝える側と伝えられる側の組み合わせによって通じ方は異なる。
「裁判官一人だけだと人によって納得の差が出てくる。AIが間に入って、うまく説明を補助してくれれば、より納得しやすいコミュニケーションができるのではないか」(稲見さん)
「メタバースの話で生身の身体で最後に残るのは何かというと、高級羊羹を持って謝罪しに行くみたいな話がある。コストをかけて、生身の人が動いたことで納得する。人を納得させることが我々人間の役割になっていくかもしれない」(稲見さん)
SF作家2人も「納得感」について語った。完全自動運転車が実現した世界を描いた『サーキット・スイッチャー』の安野貴博さんは、AI模擬裁判について仕組みを気にする人が多かったことについて、次のように語った。
「どういうふうにChatGPTを使ったのかという感想が寄せられていることが、情報がオープンじゃないと人が納得できないことを表している。今回は無罪判決という結果だったが、有罪判決を出すところが見たかった。機械に無罪と言われるより、有罪と言われるほうがモヤると思う」(安野さん)
著書に『AI法廷のハッカー弁護士』がある竹田人造さんも、仕組みをオープンにするかクローズにするかは、「AI時代の正義、悪につながっていくのではないか」と指摘した。ただし、オープンにしてもそれを適切に評価できるかという問題も出てくる。
「裁判官はプロ。AIに任せたらAIを設計した人の思想が出るし、仮に民主化されたとしても、みんなのノリで形成される価値観がそんなに正しいのかという問題はあると思う。評価関数などの情報が公開されても、しっかり見られる人間はそんなにいない」(竹田さん)
竹田さんは、仮にAIが裁判に導入されるようになれば、AIの顔色をうかがう裁判官が出てくると予想した。
「世間の発想とAIの回答が一致するようになると、なぜAIと違う判断をしたのかが問われることになる」(竹田さん)「AIの顔色をうかがわずにやってほしいが、AIと違うことの説明責任を求められること自体は悪いことではないと思う」(竹田さん)
言い換えれば、AIの言いなりは良くないとしても、AIをうまくアシスタントとして使いこなしたり、AIの判断と違う部分を説得的に説明できるところにこそ、裁判官の価値が生まれてくるということかもしれない。
安野さんも「裁判官はあらかじめ、AIの判決予想を見たほうが見落としは少なくなる。ダブルチェック的に参考にしたほうが判決のクオリティは上がるのでは」と述べた。
なお、今回のAI模擬裁判では、AI裁判官は抽象的なイメージ映像として投影されていた。安野さんは開廷時に起立、礼があることから、「AIも裁判という場に対する礼は示したほうが良い」として、仮にAI裁判官が導入されれば、頭と胴体が判別できるような映像表現になるのではないかと予想した。
では、AIの現状はどうなのか。今回の模擬裁判で使われたChatGPTには、自然言語モデル(LLM)が使われている。
機械学習理論が専門の杉山将さん(東京大学大学院教授)は、ChatGPTは「あくまで(次に続く)単語を予測するだけ。それで計算ができたり、コードが書けたりするのは本当に不思議でならないが、(現時点で)法律分野で使おうとすると危ない」と指摘する。
世界最大級の判決推論システム「PROLEG」の開発者で、司法試験にも合格している佐藤健さん(国立情報学研究所教授)も「クリティカルなところを任せるにはまだ早い」と話す。
「GPTは今のところ、読むと何となく正しそうな文章は生成してきます。ただ、自分がどのくらい法律的に正しいかは分かっていない。(利用しても)法律的に正しいかどうかをチェックしないといけないので、自分で判断するのと同じ時間がかかる可能性がある」(佐藤さん)
自然言語モデルは、論理的な意味などの把握はまだ途上と考えられている。だから自身が下した結論についてちゃんと理由を説明できない。
一方、佐藤さんが開発した「PROLEG」は論理プログラムを採用しており、AIが判決に至った理由を説明できるようになっている。ただし、事実認定や当てはめといった裁判のフェーズについては、常識的な知識などが必要だといい、判決の推論フェーズに特化。法的主張の抜け漏れのチェックなどに活用できるという。
「AIは大体うまくいくようなものをつくるのは得意。ただ、個別事例に特化すると難しい。たとえば、刑法を適用するとどうしても犯罪者になってしまうけれど、情状を考えると明らかに無罪というような場面があったとき、通常は裁判官の全人格をもとに判断することになるが、AIに全人格を入れるのは難しい。そこは人間の裁判官に任せたほうが良いかなと思う」(佐藤さん)
AIが時代の変化や新しい問題に対応し、解釈を生み出せるかという点についてはまだ課題が多いようだ。佐藤さんは講演後の取材に対し、簡単な事件で裁判官がAIをアシスタントとして活用し、浮いた時間で難しい事件に注力するような形になるのではないかとも話していた。
模擬裁判やシンポジウムの様子は、企画団体のYouTubeチャンネルでみられる。