/

「ロボットの犯罪」裁けるか 米ロースクールの先進講義

宮本和明 米ベンチャークレフ代表

ITpro

米シリコンバレーで人工知能の開発レースが過熱する一方、法理論の研究も進展している。高度に進化したロボットが罪を犯したとき、司法はどう裁くのかがテーマだ。

例えば、自動運転車が犯罪に関与したら、誰が責任を負うのか。そもそもロボットに、人間のように罪を問えるのかも争点となっている。高度な人工知能の誕生に備えた、米スタンフォード大学ロースクールの取り組みをレポートする。

スタンフォード大学が公開講座

スタンフォード大学ロースクールで、人工知能と法律の関係について、公開講義が開かれた(下の写真)。コンピューター・サイエンス学部で客員教授を務めるJerry Kaplan氏が、高度に進化した人工知能を法律はどう解釈すべきかについて講義した。この講義は一般にも公開され、著者も学生に戻った気分で聴講した。

講義は確定した法理論を教えるものでは無い。高度に進化した人工知能が社会に入ってきたとき、どんな問題が発生し、それを法律でどう規定すべきか、Kaplan教授が私見を述べた。

現在、米国では大学を中心に「人工知能社会」に備えた法整備が進んでおり、その一つの考え方が示された。これはソフトウエアに例えるとプロトタイプであり、法理論コンセプトの"デモ"である。

講義のエッセンスは、ロボットが運転する"ロボットタクシー"と銀行のクレジットカード審査に集約される。この事例を使って、高度に進化した人工知能が抱える問題と、それを裁く法律論が展開された。

ロボットタクシーが犯罪に加担

ロボットタクシーのケースでは、1990年に公開された映画「Total Recall(トータル・リコール)」が引用された。追われている主人公の男(アーノルド・シュワルツェネッガー)がロボットの運転するタクシーに逃げ込み、速く走るように指示した。映画ではロボットが制限速度を無視して速く走ると、乗客からチップをもらえる設定になっている。

こうした映画のシーンが、近い将来、現実に起きても不思議でない状況となってきた。米Google(グーグル)と米Uber(ウーバー)がそれぞれ発表した、自動運転車による無人タクシーが銀行強盗に加担した場合、法律はどう対応すべきかが示された。

覆面をして拳銃を持っている乗客が無人タクシーに乗り込んだという想定で、まず乗客は近くの銀行に行くように指示する。技術的な説明は無かったが、無人タクシーはコンピュータービジョン(画像認識)機能を搭載しており、乗客の様子を把握。無人タクシーは状況を判断し、この要求を拒否する。

しかし何らかの理由で(期末で売上目標を達成するためなど)、強盗の要求に従って銀行へと案内し、犯罪につながるケースが出てくるかもしれない。

ロボットタクシーを巡る裁判

 被害に遭った銀行は、無人タクシーを運用する会社を提訴する。無人タクシーは、犯罪を起こそうとする人を乗せるべきではないというのがその理由だ。

一方、タクシー会社は自動運転車メーカーを訴える。タクシー会社はマニュアル通りに運用しただけであり、責任は自動車メーカーにあるという主張だ。

自動車メーカーはこの訴えに対し、自動運転車は安全に運行しており、犯罪が起こることは予期できなかったと主張する。自動運転車の登場で何らかの問題が発生すると、このような訴訟が起こることが予想される。そのとき、今の法体系では結論が出せないこともあるだろう。

善悪を判断できた

ここでの新しい命題は「ロボット自身に責任を問えるか」である。法律用語では、ロボットは「Moral Agent(モラル・エージェント)」になりえるか、と表現することも学んだ。

Moral Agentとは、行為に対する結果を認識できる存在を指す。善悪を判断できる能力がある存在のことで、人間はMoral Agentであるため、罪を犯すと裁判で裁かれる。

今回のケースでは、ロボットは犯罪が起きることを予見でき、それを阻止できる状態にあった。技術的には、カメラが捉えたイメージから、オブジェクト(乗客)の意味(銀行強盗を企てる)を読み取ることができたという状態を指す。このためロボットはMoral Agentであり、司法の裁きを受けるという筋書きとなる。

企業にMoral Agentを適用した過去の判例

Kaplan教授が注目したのは、企業に対してMoral Agentを認めた過去の判例である。英国に本社を置く国際エネルギー企業のBPが運営する海底油田が、2010年にメキシコ湾で大規模な事故を起こし、11人が死亡した。

米国連邦政府はBPに対して、民事訴訟ではなく刑事訴訟でその罪を弾劾した。社員ではなく企業に刑事罰が下されるという、歴史的な判例となった。Moral Agentは意識を持った生命体でなく、企業にも適用されるという解釈がなされたのだ。

ロボットはこの延長線上にあり、Moral Agentと解釈するにやぶさかでない。ただ、企業と異なるのは、ロボットは自分で判断を下し行動できる点で、新たなコンセプトの導入が必要となる。ロボットや人工知能に罪を課すことは奇異にも思えるが、最新の議論はこの方向に向かっている。

銀行の人工知能が問題の種に

ロボットのように目に見えるものだけでなく、人工知能のようなソフトウエアについても議論が及んだ。ここでは銀行のクレジットカード審査が例として取り上げられた。

現在、銀行のクレジットカード審査では、多くの場合、応募者の財政状況を評価するルールベースの審査を行っていない。人工知能の一手法である「機械学習(Machine Learning)」が使われている。

機械学習では、応募者の様々なデータを過去の応募者の膨大なデータと比較して、合否を判定する。応募者と類似ケースを探し出し、その事例を参考に審査結果を判定するのだ。人工知能は大量のデータを解析し、経験則で判定するため、銀行には合否の理由は分からない。

このために発生している問題がある。米国のある地方政府は、銀行に対して、クレジットカード発行を拒否した理由を明確にするよう義務付けている。クレジットカード審査が不合格になった場合、それが人種に起因しているかどうかを確認するためである。しかし、実際にはルールベースで判定しているわけではなく、銀行はこの質問に答えることができない。

人工知能をどう再教育するか

仮に将来、人工知能が犯罪に加担したと判断されるような事件が起きれば、ロボットのケースと同様、司法の場で裁きを受けることになる。ソフトウエアは"ツール"ではあるが、それを超えて知的判断を伴う行為をするMoral Agentと解釈されるからだ。

裁判で有罪となった場合、人工知能は刑罰としてシステムの改良が求められる。例えば、特定の人種が不合格とならないようにするのだ。

しかし、システムはルールベースではないので、ロジックを変更して要求を満たすという措置は取れない。ある方向に偏ったデータ(特定の人種が認められるデータ)を大量に読み込ませ、人工知能のシステムを再教育するしかない。ただし、システムの変更には、多大な労力を要することが予見される。

大胆なロジックを堂々と展開

前述の通り、講義は法曹界で確定した理論ではなく、来るべき社会に備えたブレーンストーミングの色彩が強い。高度に進化した人工知能やロボットの登場で、どんな事態が発生するかを予見したものである。

ロボットが被告席に座る光景は映画の1シーンのようだが、既にロボットが人間と同じように、権利と義務を持てるかについて研究が始まっている。保守的な印象を持っていたロースクールだが、大胆なロジックを堂々と展開するところが極めて印象的であった。スタンフォード大学は科学技術で数々のイノベーションを生んでいるだけでなく、法律論理でも時代の先端を走っている。

宮本和明(みやもと・かずあき)
米ベンチャークレフ代表 1955年広島県生まれ。1985年、富士通より米国アムダールに赴任。北米でのスーパーコンピューター事業を推進。2003年、シリコンバレーでベンチャークレフを設立。ベンチャー企業を中心とする、ソフトウエア先端技術の研究を行う。20年に及ぶシリコンバレーでのキャリアを背景に、ブログ「Emerging Technology Review」で技術トレンドをレポートしている。

[ITpro 2015年3月31日付の記事を基に再構成]

すべての記事が読み放題
有料会員が初回1カ月無料

関連企業・業界

企業:

セレクション

新着

注目

ビジネス

ライフスタイル

新着

注目

ビジネス

ライフスタイル

新着

注目

ビジネス

ライフスタイル

フォローする
有料会員の方のみご利用になれます。気になる連載・コラム・キーワードをフォローすると、「Myニュース」でまとめよみができます。
新規会員登録ログイン
記事を保存する
有料会員の方のみご利用になれます。保存した記事はスマホやタブレットでもご覧いただけます。
新規会員登録ログイン
Think! の投稿を読む
記事と併せて、エキスパート(専門家)のひとこと解説や分析を読むことができます。会員の方のみご利用になれます。
新規会員登録 (無料)ログイン
図表を保存する
有料会員の方のみご利用になれます。保存した図表はスマホやタブレットでもご覧いただけます。
新規会員登録ログイン

権限不足のため、フォローできません