人工知能の安全性を担保するために提唱された三つの判定手法

人工知能の発展による自動運転の実現

ロボットや自動運転など、機械学習技術の応用というのは発展が著しいですよね。しかし、最大の課題とも言える「安全性」を、使用用途によっては証明できていないんです。そこで今回は、機械学習技術の応用と安全性についての論文をご紹介いたします。

こんにちは!!ライターのりゅうすけです!

いきなりではありますが、みなさん、人工知能の中でも「機械学習技術」と聞いて一番初めに頭に浮かんでくるのは何ですか?

私は真っ先に自動運転やロボットを思い浮かべます。

余談ではありますが、「自動運転」の実現に向けた取り組みは、現在日本でも安倍晋三首相直轄の内閣官房が全体の指揮を執っています。プロジェクトとしては、2025年をめどに高速道路での完全自動化に向けて取り組んでいます。

実際に、渋滞などで大変な思いをしてきた方も多いとは思いますが、自動運転のような機械学習技術の応用というのは、「安全面」の担保が問題になってきます。

自動運転によって車に乗るのが楽になっても、事故を頻繁に起こされても困りますよね?

そこで今回は、人工知能の中でも「機械学習技術」の応用とその安全面に関しての論文をご紹介いたします!!

目次
(1)機械学習技術の応用の現在とは
(2)人工知能安全三方針
(3)人工知能の課題と改善点
(4)機械学習技術の応用とその将来性
(5)おわりに

 

(1)機械学習技術の応用の現在とは

みなさんも知っているAI技術を応用した自動運転やロボット開発は、近年日本や世界各国で進歩が著しい機械学習技術の分野となっています。

その反面、様々な安全性に関する課題が山積みとなっています。

その一つの要因として、ディープラーニングに代表される、膨大なデータ学習や統計的処理に基づく機械学習技術が挙げられます。この機械学習技術は、処理能力に関しては一級品でも、一般的な機能安全を分析する際には、適用しづらいのです。

なので、自動運転のような、安全面が課題でありそれが非常に重要な分野において、人工知能の応用が難しくなっているんです!

そんな背景から、今回の論文では「人工知能安全三方針」という提案がなされていますので、ご紹介いたします。

(2)人工知能安全三方針

まず初めに、以下の説明で出てくる「安全関連系」と「非安全関連系」について解説していきます。システムを安全に機能させるという観点からシステム構成を分けたときに、「安全関連系」と「非安全関連系」に分けています。

1:安全関連系を伴う人工知能

三方針の一つ目は、人工知能技術を非安全関連系で用いる方針です。自動車を例に挙げると、非安全関連系の経路探索ナビに人工知能技術を取り入れ高度なナビゲーションを構築するということです。安全関連系については、従来からある技術をそのまま取り入れます。

システム構築の点では、さほど難しくないのですが、人工知能技術を安全対策として活用できないのがこの一つ目の方針です。

2:安全関連系の要素としての人工知能

三方針の二つ目は、安全関連系に人工知能技術を取り入れる方針です。

ここでの一番の問題は、人工知能の信頼性・安全性を上げることが必要になってきます。

機能安全の国際規格においては、人工知能技術の安全関連系での使用というのは現状非推奨と定められています。他にも、危険事象のサンプルを大量に集めることや、そのデータサンプルで実際の事故を対処していくなどの課題は多い点からも、まず安全性と信頼性をあげるための技術開発をすることが最優先事項であると言えます。

3:人間の代替としての人工知能

三方針の三つ目は、将来の人工知能技術が人間と同等の判断力を持つと仮定した場合に、人工知能が人間の役割を代替できるとする方針である。

その理由としては、人間はミスをする生き物であるからです。実際に事故をしてしまったり起こされてしまった、または目撃をしたことはありますよね。

しかし、人間と同レベルの判断力があるということを示すには非常に難易度が高い。

例えば、事故があった場合に問題となるのが、その責任を負うべき運転手がその場にいないという状況を、いかに社会制度を構築して解決していくかということである。

この方針を有効に活用するためには、人工知能技術の発展や倫理問題・社会受容の点などの懸念点が挙げられます。

(3) 人工知能の信頼性の課題と改善

これまで、機械学習技術の分野では、システムが安全性を担保しておりどのように影響するか、課題に対する対策をどのように対処するかなどの議論がおこなわれてきました。

安全関連のセンサーを例とすると、危険事象を安全と見誤るような失敗は最大限抑制させていかなければいけません。この改善案として挙げられるのが、疑わしい事象に関しては「危険」と判定させるよう学習させることです。これにより、安全性の担保が期待できます。

最も重要であるとも言える「安全性」に関して、このような判定を行うことができる人工知能を実現できれば、機械学習技術の応用にも安全性・信頼性が上がってきます。

これからは、上記のような具体的・定量的に安全性を実現させていくことが重要となってきそうですね!

ここで、この論文で提案されている「三つの判定手法」をご紹介していきます!

・第一の手法

第一の手法は、曖昧な事象を「危険」と意図的に判定させる手法です。危険事象を最大限0に近づけるためには、判定をするネットワーク自体が、事象判定に迷った際に、どうするかをあらかじめ決めておくことが必要があるからです。これにより、より高い確率で危険事象と判断されることになります。

・ 第二の手法

第二の手法は、ネットワークに危険事象を印象付け、敏感に反応するように訓練させる手法です。意図的に危険事象を過学習させることで、機械学習技術の応用の信頼性・安全性に繋がっていきます。

・第三の手法

第三の手法は、学習用サンプルデータの割合操作によって危険判定の増大を促す手法です。

サンプル中の危険事象の数を意図的に増やし、そうでない事象の数を減らして学習をさせることで、危険事象が多めに認識されます。そうすることにより、危険事象の発生を抑制することに繋がり、機械学習技術の応用の信頼性・安全性にも繋がってきます。

危険事象のサンプルは、比較的稀であるので、この手法は有用であると言うことができるでしょう。

また、この論文では、上記の第一と第二の手法を同時に適用し、危険事象を安全と誤認する確率が通常よりも抑制されているという結果が出ています。

上記のグラフを見ると、安全かどうかの判断が改善されていることが分かりますよね!

(4)機械学習技術の応用とその将来性

今回は、機械学習技術の応用による安全面についての論文をご紹介いたしました。

とりわけ、安全重視のシステムについての三方針とその安全性の評価を中心に紹介していきましたが、機械学習技術を応用する際には、安全性が非常に重要なことが分かりました!

この先、大きな危険がなくなる役割を担うことができ、安全性が社会的に認められることが出来れば、より広い分野での応用も期待できます。

その為には、ベネフィット(顧客が得られる利益を上げること)を向上させることが必要になってきます。そのような実績を積むことによって、先ほども述べたような、機械学習技術の応用の安全性認知に繋がり、普及していくことでしょう!

まだまだ課題が残っている「機械学習技術」という分野ではありますが、応用が実際に適用される段階にまで来れば、私たちの生活というのはとても効率的になることは間違いありません!

機械学習技術の応用による、新しいロボットの開発や自動運転の実装が非常に楽しみですね!!

 

Abstract
Constructing way of functional safe systems using artificial intelligence has not been sufficiently discussed. In order to develop and understand safe systems using artificial intelligent technology, we should first clarify the role of artificial intelligence technology in safety systems. We propose to classify the role of artificial intelligence in safe systems into following three policies. (1) Use AI independently from safety related system. (2) Use AI as part of safety related system. (3) AI is used as a human substitute. Generally, the reliability required for safety related systems is extremely high, and there is a gap with the reliability of artificial intelligence technology. As a measure against this problem, we propose asymmetric classification methods for improving reliability on a viewpoint of functional safety. These are to bias decision on non-safety side, are to prevent ambiguous cases mis-recognizes as safe state while possessing the judgment function on the safety side. By these methods, we expect that these techniques will lead to the utilization of artificial intelligence technology in functional safety systems.

Three policies of AI-safety in viewpoint of functional safety and asymmetric classification methods for judgement of safety. Kiyoshi FUJIWARA, Yasushi SUMI , Takuya OGUREand Yoshihiro NAKABO

ライター:株式会社wevnal ChatbotAI事業部 山本 隆介