責任意識を組み込んだ自動運転の安全アーキテクチャの形式モデル化(Formal Modelling of Safety Architecture for Responsibility-Aware Autonomous Vehicle via Event-B Refinement)

田中専務

拓海先生、お忙しいところすみません。最近、部下から自動運転の安全について論文を読めと言われまして、正直何から手を付ければよいか分かりません。特にAIの黒箱制御が混ざると現場に落とし込めるのか不安でして、投資対効果の観点で判断したいのです。

AIメンター拓海

素晴らしい着眼点ですね!大丈夫、投資対効果と現場導入の不安は多くの経営者が抱く重要な疑問です。手短に要点を三つで整理しますと、まずは安全ルールの定義、次にそれを扱う設計手法、最後に黒箱AIを安全に使うためのアーキテクチャです。順に、噛み砕いてお話ししますよ。

田中専務

なるほど、まずは安全ルールということですね。具体的にはどんなルールを作るのですか。うちの工場でいうと安全手順書のようなものでしょうか。

AIメンター拓海

素晴らしい着眼点ですね!ここでのルールはResponsibility-Sensitive Safety (RSS)(Responsibility-Sensitive Safety、責任に配慮した安全)という考え方に近いです。RSSは交通参加者が守るべき最低限の振る舞いを定義し、衝突を避けるための線引きを行うものです。工場の手順書でいう『最低限守るべき安全距離や手順』を道路に当てはめたものと考えれば分かりやすいですよ。

田中専務

ふむ、要するに『守るべき最低ライン』を決めるということですね。で、それをどうやってAIが守るのかが問題なのではないですか。AIは学習で動くと聞くと現場では怖いのです。

AIメンター拓海

本当に良い質問ですよ!その不安を和らげるために設計されたのがSimplex architecture(Simplex architecture、保険的安全アーキテクチャ)です。Simplexは高性能だが保証が難しい黒箱制御と、証明可能で確実な保守的制御を組み合わせる方式です。イメージは高性能エンジンの前に安全のためのブレーキシステムを置くようなもので、両方の長所を活かすことができますよ。

田中専務

なるほど、保険的な部分で安全を担保するのですね。では設計段階で安全性を『証明』するという話が出てきますが、これはどうやって実現するのですか。うちのIT部門では形式手法という言葉が出てくると反応が鈍くなります。

AIメンター拓海

素晴らしい着眼点です!形式手法の一つにEvent-B(Event-B、形式手法)という方法があります。Event-Bはシステムの仕様を段階的に詳細化していく

AIBRプレミアム

関連する記事

AI Business Reviewをもっと見る

今すぐ購読し、続きを読んで、すべてのアーカイブにアクセスしましょう。

続きを読む