先日来、ロイターが配信した<Europe’s robots to become ‘electronic persons’ under draft plan>という記事にあるelectronic person=電子人間のことが気になっていました。どんな「人間」なのか?

ロイターは日本語訳も配信しています。それによると、これは欧州連合(EU)欧州議会の法律問題委員会が提起しているもので、「労働に従事するロボットを<電子人間>と位置付け、オーナーには社会保障費などを負担させるべき」で、「「少なくとも最も洗練度の高い自立的なロボットについては、固有の権利と義務を有する電子人間という地位を与える」とあります。

でも、これだけでは、なぜわざわざ<電子人間>というカテゴリーを法的に創出しようというのかがよく分からない。暇に任せて、記事の元になったEUの文書にあたってみました。

文書は、先の法律委員会名で5月31日付で出されたもので、 DRAFT REPORT (草案)with recommendations to the Commission on Civil Law Rules on Roboticsという副題が付いています。ロボットに関する民法規定のススメ、というところでしょうか。

元来、法律が苦手な上、英語の法律用語やらEUの規定やらが次々、出てきて大苦戦。しかも22ページもある! なので、意訳を交えてですが、理解できた(と思われる)内容をかいつまんでご紹介します。

まず、なぜ、ロボット法制の必要性を考えたか。それは「人類が今、洗練されたロボット登場の入り口に立っているからだ」。「ロボットとAI(人工知能)の発達によって、今、人間がしている仕事の大部分をロボットが行うかも。そうすると雇用と社会保障システムの継続が危うくなる」「一方、自律型ロボットが様々な仕事をすると、間違いが起こり、人や物にダメージを与えるような事態も起きる」「数十年のうちに、AIは人間の知的能力を超える。その事態に今から準備しなければ、人間は自ら作り出したもののコントロールが出来なくなる」等々。いちいちもっともです。

次の一般原則では、ロボットの製造、運営に関わる人間は、アイザック・アシモフのロボット工学3原則に留意することとし、EUが基本的倫理原則の制定に重要な役割を果たすべきだ、と提唱します。

そして、次がLiability(責務)で、これからがelectronic personにつながる本論になっていきます。いずれ、高度に洗練され、自分で判断し、行動する自律型ロボットが登場しますが、その法的地位はどうするのか。時には誤って外部に損害を与得ることもありうるが、その責任は誰が取るのか。誰が弁償するのか。(この辺りからの議論は複雑ですので大幅に簡略化します)

そこから、議論は具体化します。「ロボットの民事上の責任というのは重大な項目だ」とし、その法的解決法として「ロボット自身にかける保険」のスキームという発想が出てきます。高度自律型ロボットが有形無形の資産に誤って損害を与えた場合、その責任をロボットの製造者か、販売者か、利用者か、あるいはユーザーか、といった関係者に遡って決着を付けるという煩わしさを避けられるからです。

これは、自動車保険の考えに似ています。ただ、自動車保険は、自動車にかけているのではなく、実際には運転する人間にかけ、人間が契約しているわけです。そこで、ロボット保険を作るとすると、対象になるのは高度な自律型ロボットですから、契約はそのロボット自体になります。関係する人間の責任遡及を避けるという意味でも。

どうやら、そこから保険契約の主体となるelectronic person=電子人間という概念が創出されたようです。もちろん、お金を払うのは人間ですが、これは社有車の自動車保険を社員でなく、会社が払うようなものでしょう。

英語力、法律的表現の理解力の両方とも乏しいので、曲解したり誤解したりしている部分もあるかもしれませんが、私なりには腑に落ちました。

EUのこの提案は、高度自律型ロボットより先に来るだろう全自動運転車時代において、事故が起きたらその責任を誰が取るのか、という今、現に問題になっている議論と完全に通底します。

EU本部、欧州議会の肥大化した官僚組織については、「規制のための規制を次々、出してくる」という悪評も一部にあるということですが、こういう、先見的な提案も国際組織ならでは、と思わされました。