2017年02月28日 (火)

人工知能 研究者が守るべき倫理指針 学会がまとめる

K10010893851_1703010519_1703010525_02_01.jpg

急速に開発が進んでいる人工知能が人類への脅威とならないよう、研究者が守るべきルールを定めた初の倫理指針を国内4000人の研究者でつくる人工知能学会がまとめました。他人に危害を加える意図をもって利用することを禁じるとともに、人工知能自体も倫理を守らなければならないと強調しています。

人工知能をめぐっては、人間のようにみずから考えて行動する“自律性”を目指して急速に研究開発が進む一方、人工知能を悪用したり、将来、人工知能が人の指示に反したりすることも懸念されています。

このため、全国のおよそ4000人の研究者でつくる人工知能学会は、3年前に委員会を設けて、研究者が守るべきルールを定めた倫理指針の検討を重ね、28日に開かれた理事会で正式に決定しました。

この中では、人工知能が悪用されたり乱用されたりする可能性は否定できないとしたうえで、人工知能が有益なものになるよう、研究者は最大限の努力をしなければならないとしています。そのうえで、人類の安全への脅威を排除するよう求めるとともに、直接的にも間接的にも、他人に危害を加える意図をもって人工知能を利用することを禁じています。

さらに、人工知能が人間社会に不公平や格差をもたらす可能性があると指摘したうえで、将来、人工知能が社会の一員となることも想定し、人工知能自体にプログラムなどを通じて倫理指針を守らせるようにすることが重要だと強調しています。

倫理委員会の委員長を務める東京大学の松尾豊特任准教授は「人工知能が社会の一員として、人間とよい関係を築き、互いに未来を作っていくため、この指針を人工知能と私たちとの関わりを考える出発点にしてほしい」と話しています。

人工知能のリスクは

人工知能の技術の進歩によって私たちの暮らしが豊かになる一方、どんなリスクに直面する可能性があるのでしょうか。

人工知能について詳しい京都大学の西田豊明教授によりますと、まず懸念されるのが、差別や事故などにつながりかねない人工知能の安全性や制御の問題です。人工知能は大量のデータから学習し、その状況に最も適した答えを導き出しますが、すべての場面において必ずしも適切な答えを導き出すという確証はないといいます。

去年3月、インターネット上の会話を通じて学習するマイクロソフトの人工知能「Tay」は、インターネット上の一部の人たちとの間で繰り返された不適切な会話を学んでしまった結果、ネット上で人種差別的な発言をするようになりました。

また、アメリカでグーグルの自動運転車が実験走行中に事故を起こすなどしていますが、技術の改善によって、その頻度は下がると考えられるものの、人間のような常識を持ち合わせていないため、現段階では判断ミスを起こす可能性があるということです。

また、プライバシーへの懸念もあります。現在でも特定の消費者の購買データから、その人の趣味に合った商品などを提供するサービスがありますが、そうした技術を応用すれば、消費者の購買意欲をコントロールすることも可能だと言います。

さらに、雇用についてもリスクを抱えていると指摘しています。すでに一部の企業では、人工知能によるサービスの導入が始まっていますが、人工知能による職業の代替が進んだ場合、人間との仕事の棲み分けをどのように図るのか議論が必要なほか、深刻な失業問題が起きた場合、その対応について社会的な合意を形成する必要があるということです。

このほか、みずからの判断で攻撃の標的を決める人工知能を備えた、自律型兵器の開発への懸念もあります。各国で人の遠隔操作に頼らない自律型兵器の開発が進められる中、人の介在なしに標的を判断する人工知能が実用化すれば、自律型兵器を用いたテロが発生するおそれがあるほか、機械が人間の生死を選別するという倫理的な問題も発生するということです。

人工知能にも倫理必要

今から70年近く前の1950年に出版されたSF小説の歴史的名作「われはロボット」。

この中で、著者のアイザック・アシモフさんは、ロボットが守るべきルールとして、「人間に危害を加えてはならない」、「人間の命令に従わなければならない」、「自分の身を守らなければならない」などとする3つの原則を示しました。

ロボットと人間の関係がどうあるべきかを問題提起した、この「ロボット3原則」は小説だけでなく、さまざまな研究開発の現場に今も大きな影響を与えています。

今回の指針をまとめるにあたり、大きな議論の1つとなったのは「人工知能に倫理を守らせる」という項目を加えるかどうかでした。

人工知能が人間をしのぐ知能を持ったり、人間の指示に反したりするという事態について、委員の間からは「遠い未来の話だ」と「近い将来に起こりうる」という両方の意見があがりました。議論の末、社会の不安に応えるためには、人工知能にも倫理が必要だと結論づけ、指針の締めくくりとなる9番目の項目として盛り込んだのです。

海外でも議論始まる

人工知能が抱えるリスクや倫理の問題については、アメリカ政府のほか、グーグルやフェイスブックといった大手IT企業、それに著名な科学者なども団体をつくるなどして、どのようなルールが必要か議論を始めています。

このうち、テスラモーターズのイーロン・マスクCEOや宇宙物理学者のスティーブン・ホーキング博士のほか、人工知能の研究者も所属するアメリカの民間団体は、特に軍事利用への問題を提起し、おととし7月、自律型兵器の開発禁止を訴える書簡を公開しました。
世界各国の人工知能やロボットの研究者など2万人以上が賛同し、大きな注目を集めました。

書簡では「人工知能は多くの点で、人類に利益をもたらす大きな可能性がある」とする一方、「人工知能を搭載した“自律型兵器”は、暗殺や国家の不安定化、特定民族の殺害といった任務に使われかねず、こうした技術の開発競争はすべきでない」と訴えています。

一方、人工知能の普及を図りたい大手IT企業の間では、安全性の研究や消費者に理解してもらうための取り組みも始まっています。

グーグルやアマゾン・ドット・コム、それにフェイスブックなどの大手IT企業は去年9月、人工知能が社会に利益をもたらす可能性を広く知ってもらうことなどを目的とした団体を設立。

人工知能についての理解促進や安全性などに関する研究の支援、それに人工知能が社会に与える影響についての議論などを行うとしていて、ことし1月にはアップルも参加を表明しています。

また、アメリカ政府も去年10月、オバマ前大統領のもと、人工知能の進歩が社会に及ぼす問題などについて述べた報告書を作成し、人工知能研究を行う大学は倫理などのテーマもカリキュラムに盛り込むことなどを提言しています。

国の有識者懇談会が報告書

人工知能をめぐり、メリットの一方で、心配される人や社会への影響についてはに国が設けた有識者懇談会も、ことし1月、報告書をまとめています。

この中では、まず人工知能の倫理的な課題について、「利用者が知らない間に感情や信条、それに行動が操作される可能性がある」と指摘したうえで、政府や研究機関、企業などに求められる課題として、「人工知能を使うかどうか、個人個人が選択できる自由を確保する必要がある」としています。

また、人工知能の社会的な課題については、「人工知能に依存したり、過信したり、逆に過剰に拒絶したりして、新たな社会問題や社会的病理が生じる可能性がある」と指摘し、「正しい情報の公開や議論の場の提供、教育面での取り組みが必要になる」としています。

さらに、人工知能の法的な課題としては、「自動運転の車など、人工知能の技術によって事故が起きた場合に、その責任の度合いが誰にどのくらいあるのか、あらかじめ明確にするとともに、保険を整備することが重要だ」としています。

政府はこの報告書の内容を、ことし春にまとめる「科学技術イノベーション総合戦略」に反映させることにしています。

有識者懇談会で座長を務めた、科学技術政策が専門の東北大学の原山優子名誉教授は「人工知能の開発や活用は、もはや止められないスピードで進んでいる。関わらないわけにはいかないし、逆に国際競争力を高めるためにも、積極的に活用していく必要がある。今回の報告書を心配される影響に対して先手を打って、対応していくための議論の出発点としたい」と話しています。

投稿者:かぶん |  投稿時間:20:33  | カテゴリ:科学のニュース
コメント(0) | トラックバック (0)


トラックバック

■この記事へのトラックバック一覧

※トラックバックはありません

コメント(0)

※コメントはありません

コメントの投稿

ページの一番上へ▲