OpenAIが2022年11月30日に大規模言語モデル(Large Language Model。LLM。)である「ChatGPT」を公開して以降、生成AIの発展と拡大が止まらない。ChatGPTをはじめとするLLMは、サイバー上で活用されてきたが、2025年ころからは、人手不足や賃上げによる人件費上昇の影響もあり、フィジカルAIにスポットライトが当たっている。

 一口にフィジカルAIといっても、その定義さえ百花繚乱の状況である。Hewlett Packard Enterprise Development LPの「HPE用語集」によれば、フィジカルAIとは.「さまざまなセンサーやアクチュエータからのデータを直接処理することで、機械が現実世界を認識、理解してやり取りできるようにする人工知能の一分野」をいうものとされている。そして、その特徴として「人間が提供する情報に依存し、主にデジタル領域で動作する生成AIとは異なり、フィジカルAIシステムは、カメラ、マイク、温度センサー、慣性計測装置、レーダー、LIDARなどのツールを通じて現実世界から情報を収集します。また、こうした感覚データを活用してリアルタイムの知覚、推論、意思決定を実行し、環境に迅速かつ動的に対応できるようにします。」と説明されている。

 もっとも、フィジカルAIにおいても判断等の領域ではLLMが用いられるため、フィジカルAIとLLMは一部重なり合うもののようである。

 とはいえ、フィジカルAIは、主にサイバー上で活用されるLLMとは異なり、物理的な動作を伴うため、その動作によって人や物に物理的な損害を与える可能性がある。その意味では自動運転車と共通する部分もあるが、フィジカルAIは、自動運転車よりも活用領域が広くなるものと想定される。

 自動運転に関する民事上・刑事上の責任については、智進トピックス「自動運転と民事上・刑事上の責任」で検討しているため、同トピックをご参照頂きたい(https://chishin-law.jp/blog/%e8%87%aa%e5%8b%95%e9%81%8b%e8%bb%a2%e3%81%a8%e6%b0%91%e4%ba%8b%e4%b8%8a%e3%83%bb%e5%88%91%e4%ba%8b%e4%b8%8a%e3%81%ae%e8%b2%ac%e4%bb%bb/)。

 以下では、自動運転車を除くフィジカルAIが人的物的な被害を起こした場合の民事上・刑事上の責任について検討する。なお、フィジカルAIについては、機械本体(ハード)を製造する事業者とその知能となるAI等を制作する事業者が別となる事業モデルも想定されるが、想定される事故原因が多くなり複雑化するため、以下ではメーカーが機械本体とAIをパッケージとして製造・販売するケースを前提に検討する。

 

1 フィジカルAIに関する立法状況

  我が国においては、2025年9月1日に「人工知能関連技術の研究開発及び活用の推進に関する法律」が施行されたものの、国民や事業者に対して国・地方公共団体の施策への協力や、資料の提出等の協力について努力義務を課すにとどまり、民事上や刑事上の責任に関する定めはない。

  また、自動運転車と異なり、フィジカルAIには型式認証制度がないため、絶対的な技術面でのセーフハーバーもない。

  結局、フィジカルAIが人的物的な被害を引き起こした場合、民事上の責任については主として製造物責任法や民法、刑事上の責任については刑法の適否が問題となる。

 

2 民事上の責任

(1)整備不良や耐用年数切れ等の場合

   まず、ユーザー(フィジカルAIの導入企業)に整備不良や、機械本体又は部品の耐用年数切れ等の問題があった、あるいはAIのコードを無断で改変したためにフィジカルAIが誤作動を起こし、人的物的な被害が発生した場合はどうか。

  ① ユーザーの民事上の責任

    まず、ユーザーが、被害を受けた従業員や消費者その他の第三者の被害者に対して安全配慮義務違反あるいは不法行為責任に基づく損害賠償責任を負うこととなることに特に異論はないと思われる(ただし、ユーザーがコードを無断で改変したとしても、その改変の程度が軽微で、かつ誤作動を引き起こす原因となる可能性が低いと解されるコード部分のみを対象とする場合は、ユーザーが責任を免れる可能性がある。)。

    もっとも、フィジカルAIの場合、原因が整備不良や製品・部品等の問題ないしコードの無断改変にあるのか、あるいは認知・判断・指示等AI側の問題にあるのかの判別は容易ではなく、裁判実務上は、労働災害以外の場合、被害者による立証には困難が伴うものと思われる。

  ② メーカーの民事上の責任

    メーカーの民事上の責任としてその適否が問題となるのは、製造物責任法3条である。なお、民法上の不法行為責任の適否も問題となり、製造物責任と相違する点(20年の長期消滅時効、製造物のみが損害となる場合も含まれること等)はあるものの、製造物責任の場合、過失が要件とならない特長があるため、ここでは製造物責任についてのみ検討する。

    製造物責任においては、欠陥、損害及び両者の因果関係が要件となる。ここで、欠陥とは、「当該製造物の特性、その通常予見される使用形態、その製造業者等が当該製造物を引き渡した時期その他の当該製造物に係る事情を考慮して、当該製造物が通常有すべき安全性を欠いていること」をいう(同法2条)。

    そして、ユーザーに整備不良等の問題があった場合やコードの無断改変があった場合、フィジカルAIに「欠陥」があったことにはならず、メーカーに製造物責任法3条による損害賠償責任は発生しないこととなる。しかしながら、やはり、フィジカルAIの場合、原因が整備不良や製品・部品等の問題ないしコードの無断改変にあるのか、あるいは認知・判断・指示等AI側の問題にあるのかの判別は容易ではなく、裁判実務上は、被害者による立証には困難が伴うものと思われる。そのため、実際に欠陥がなくとも、メーカーが訴訟に巻き込まれるリスクは高いと思われる。

(2)機械本体・部品又はAIに問題があった場合

   では、フィジカルAIの機械本体・部品又はAIに納入段階で問題があったためにフィジカルAIが誤作動を起こし、人的物的な被害が発生した場合はどうか。

  ① ユーザーの民事上の責任

    この場合でも、ユーザーがAIを無断改変した場合や、ユーザーによる安全防止対策に問題があれば、ユーザーが、被害を受けた従業員や消費者その他の第三者の被害者に対して安全配慮義務違反あるいは不法行為責任に基づく損害賠償責任を負うこととなろう。ただし、ユーザーがAIのコードを無断改変した場合でも、その改変の程度が軽微で、かつ誤作動を引き起こす原因となる可能性が低いコード部分のみを対象とする場合は、ユーザーが責任を免れる可能性はある。

  ② メーカーの民事上の責任

   ア フィジカルAIの機械本体・部品又はAIに納入段階で問題があったためにフィジカルAIが誤作動を起こし、人的物的な被害が発生した場合にメーカーが製造物責任法3条による損害賠償責任を負うこととなるのは、当然である(ただし、ユーザーがAIのコードを無断改変した場合は、メーカーに責任を問うことは困難になろう。)。

     しかしながら、訴訟等を視野に入れると、フィジカルAIの機械本体や部品に問題があった場合は別として、AIに欠陥があったことを被害者側が主張立証することには困難を伴うことが想定される。それは、AIがどのように状況を認知し、その認知した状況に基づいてどのように判断して動作を決定したのかを的確に判断することができず、特に現状では後者についてAIによる推論の過程が不透明な部分が多いことから、その検証が非常に困難と思われるためである。したがって、裁判実務上は、被害者がAI側に欠陥があることの主張及び立証のハードルが高くなるものと想定される。

     立法論となるが、AIによる状況認知の在り方や、その認知結果を前提とした判断過程の問題の有無を検証することができるAIによる検証をメーカーに義務付け、この検証が行われていない限り、メーカーに損害賠償責任を負わせるような対応も考えられよう。

   イ 他方、訴訟を提起されたメーカーとしては、通常の製造物責任訴訟と同様、マニュアル等で誤作動の可能性の注意・警告を行っていたとの反論や、開発危険の抗弁(「当該製造物をその製造業者等が引き渡した時における科学又は技術に関する知見によっては、当該製造物にその欠陥があることを認識することができなかったこと」)、さらには過失相殺の主張・立証を行うことが想定される。

     もっとも、注意・警告に関しては、自律的に認知・判断・動作等を行うフィジカルAIの特性上、抽象的にマニュアル等で誤作動の可能性の注意や警告を行っていただけでは、製造物責任を免れることは困難と思われる。フィジカルAIの用途に合わせ、例えば工場における作業を代替するフィジカルAIであればフィジカルAIが人や設備に危害を加えることのないよう囲障を設けること等の具体的な注意及び警告が必要と思われる。

     一方、開発危険の抗弁は、メーカーとして一定の武器となり得よう。メーカーとしては、AIに学習させたデータや、開発時の実験結果等を書証として提出するとともに、各種専門家の私的鑑定書を提出し、カメラやレーダー、センサー、AI、モーション制御機構、躯体、駆動部等の機能に問題がなく、引渡時点の知見では欠陥と認識しえなかったことを主張・立証していくことになると思われ、特に普及の黎明期においては、開発危険の抗弁の主張・立証は比較的認められやすいのではないかと思われる。もっとも、医療や介護等、直接人を取り扱うフィジカルAIや、パワースーツのように人が装着するようなフィジカルAI等については、裁判所において、開発危険の抗弁が認められるハードルが高く設定される可能性もある。

 

3 刑事責任

  過失による物(器物)の損壊は、刑事責任を問えない(故意に器物を損壊するフィジカルAIを製造した場合は、器物損壊罪〔刑法261条〕が成立しうるが、ここでは割愛する。)ため、以下では、フィジカルAIが人を死傷させた場合に業務上過失致死傷罪(同法211条)の成否について検討する。

(1)整備不良や耐用年数切れ等の場合

   まず、ユーザーに整備不良や、機械本体又は部品の耐用年数切れ等の問題があった場合や、ユーザーがAIのコードを無断改変したためにフィジカルAIが誤作動を起こし、人身被害が発生した場合はどうか。

   この場合は、ユーザーの現場責任者のほか、整備不良等の状況を知りながらこれを放置した幹部、あるいはAIのコードの無断改変に関与した者らが業務上過失致死傷罪に問われるおそれがある。ただし、AIのコードの無断改変については、その改変の程度が軽微で、かつ誤作動を引き起こす原因となる可能性が低いコード部分のみを対象としていたようなときは、予見可能性を欠くため、刑事責任を問うのは困難と思われる。

(2)機械本体・部品又はAIに問題があった場合

   では、フィジカルAIの機械本体・部品又はAIに納入段階で問題があったためにフィジカルAIが誤作動を起こし、人身被害が発生した場合はどうか。

  ① ユーザー側の刑事責任

    フィジカルAIの機械本体・部品又はAIに納入段階で問題があった場合、上記(1)のような場合を除けば、ユーザーの役員や従業員が業務上過失致死傷罪に問われることがないのが原則である。

    もっとも、事故よりも前からフィジカルAIに誤作動が発生しており、人身事故発生の具体的予見可能性があったような場合、そのような状況を認識していた役員や従業員が業務上過失致死傷罪に問われる可能性はある。

  ② メーカー側の刑事責任

    フィジカルAIの機械本体・部品又はAIに納入段階から問題があったためにフィ ジカルAIが誤作動を起こし、人身被害が発生した場合、そのような誤作動の発生を具体的に予見できたメーカーの役員や従業員が業務上過失致死傷罪に問われることとなる。

    しかし、フィジカルAIの場合、そう単純ではない。民事上の責任の検討でも触れたが、AIがどのように状況を認知し、その認知した状況に基づいてどのように判断して動作を決定したのかを的確に判断することができず、特に現状では後者についてAIによる推論の過程が不透明な部分が多いことから、その検証が非常に困難と思われるためである。

    メーカーの開発者が、AIに読み取らせたデータ量が少なく、又は読み取らせたデータに偏りがあった、若しくはAIに用いるGPU等の処理装置の能力が不足していた等、AIの性能に関わる点で問題を生じさせていた場合は比較的過失を問いやすいとはいえる。

    しかし、AIの性能に関わる点に問題がなく(正確には発見されず)、AIによる状況認知の在り方や、その認知結果を前提とした判断過程に問題がある場合は、AIによる「自律的な」情報処理過程であるため、開発者が誤作動を少なくとも具体的には予見し得たとの立証は非常に困難であり、業務上過失致死傷罪での立件は事実上不可能と思われる。

    ここも、立法論となるが、フィジカルAIによる状況認知の在り方や、その認知結果を前提とした判断過程の問題の有無を検証することができるAIによる検証をメーカーに義務付け、この検証が行われていない限り、メーカーに一定の刑事責任を負わせるようなことも検討される可能性がある。

 

3 さいごに

  以上、非常に雑駁ではあるが、フィジカルAIによる人的物的な被害が生じた場合における民事上・刑事上の責任について検討を試みた。

  フィジカルAIは、直接人や物と物理的に接触することから、可視的な形での被害が発生するため、従前のサイバー領域での生成AIよりも法的なリスクが顕在しやすい反面、責任の主体の検討は容易といえよう。しかしながら、その主体に対して実際に法的責任を問うことについては、やはりAI特有の問題があるため、現行法下ではハードルが高い部分が多い。

  少子高齢化が進展し、円安下や政治状況により外国人労働者の手を借りることのハードルが上がっている我が国においては、フィジカルAI導入の必要性は高い。また、我が国では、ロボットへの抵抗感が諸外国よりも低いとされ、フィジカルAI普及の素地も整っている。それだけにフィジカルAIが急速に普及していく可能性がある。

  しかしながら、フィジカルAIには人的物的被害を生じさせるおそれが高く、フィジカルAIを適正に活用して経済成長を遂げるためには、事故発生時にメーカー等に適正な責任を負わせることにより、メーカーに事故の予防に万全な対応を採るよう担保することが必要不可欠であり、立法による対応が求められているといえよう。

  フィジカルAIの適正かつ健全な普及を望んでやまない。

                                                      以 上