読者です 読者をやめる 読者になる 読者になる

イギリスで「ロボットの倫理基準」が公式に発表 新たに見えてくるAI搭載ロボットの問題点

人工知能

f:id:ronnieeda:20160924150123j:plain

 

SF作家アイザック・アシモフはその著作の中で、よいロボットのあり方についての基本的なルールを提示した。

 

いわく:人を傷つけない、命令に従う、私たちを守る、の3原則である。

 

一方イギリスのブリティッシュ・スタンダード・インスティテュートはこのたび、設計者たちが倫理的に健全なロボットを開発するときに指標となる公式基準を発表した。

 

この文書は通常の安全衛生基準とおなじような無味乾燥な言葉で書かれている。

 

しかしその中で望ましくない将来のシナリオとして想定されているものは、小説から直接引用されているものなのである。

 

ロボットが人をだます、ロボットに依存しすぎる、ロボット自身が学習機能を備えた結果本来の目的以上の力を持ってしまう、などの状況が、製造者がリスクとして考慮に入れなくてはいけない項目としてこの文書に記載されているのだ。

 

専門家たちも「ロボットやAIに初めて倫理的価値が与えられた第一歩」として歓迎している。

 

【人とのふれあいを想定したロボットが人をだます?】 

この文書は幅広く適用される倫理原則がから始まっている。

 

「ロボットは人を殺したり傷つけたりすることを目的として設計されてはならない」

「責任を持つのはロボットではなく、人がロボットの代理人として責任を持つこと。どのロボットについても、誰が責任者であるかをハッキリできるようにすること」

 

子供や老人などと触れ合うことが目的で製造されたロボットが、人と感情的な絆を持つことに関する問題も考えられる。

 

シェフィールド大学のシャーキー氏によれば、この問題こそロボットが人をだましてしまう恐れのあるところだという。

 

「ある幼稚園に小型ロボットが置かれ、子供たちはとても喜び実際にロボットと絆を深めることができました。その後子供たちに聞いてみると、ロボットのほうが家にいるペットたちよりも頭がいいと答えたのです」

 

【ディープ・ラーニングに透明性を期待できるか?】 

また、文書ではロボット設計者たちは透明性を確保するよう努めなければいけない、としている。

 

しかし科学者たちは、これは実際とても難しいという。

 

AIシステム、特にディープ・ラーニングの場合、ロボットがどうしてそのような判断に至ったのかを知ることは不可能だからだ。

 

ディープ・ラーニングの機能を持ったロボットは、あらかじめ決められた特定の仕事をこなすようプログラムされているわけではない。

 

成功できるやり方を見つけ出すまで何度も「頭脳」が試みを続け、ベストなやり方で仕事をするのである。

 

ここでロボットが考え出したやり方と言うのは、人間では想像がつかなかったり理解できなかったりする場合もあるのだ。

 

【ネット上に氾濫する偏見がAIにも影響】 

この公式基準では性別や人種などによる差別的な側面を指摘し、「文化的な多面性を尊重すること」を重視している。

 

しかしディープ・ラーニングはインターネット上のデータを使って学習するため、ネット上の偏見がそのまま採用されてしまうという問題がある。

 

実際、ディープ・ラーニングで学習したシステムは白人の中年男性を最も“好ましい”存在として認識してしまう傾向があるのだ。

 

「まだロボットの分野には“ブラックボックス”というべき問題がある。それを見つけ出し、箱を開けて調べてゆく必要があるのです」と上記のシャーキー氏は語っている。

 

   

 

www.theguardian.com