論文の概要: Explainable AI for Ship Collision Avoidance: Decoding Decision-Making Processes and Behavioral Intentions
- arxiv url: http://arxiv.org/abs/2405.09081v2
- Date: Mon, 20 May 2024 02:31:16 GMT
- ステータス: 処理完了
- システム内更新日: 2024-05-21 20:06:02.611280
- Title: Explainable AI for Ship Collision Avoidance: Decoding Decision-Making Processes and Behavioral Intentions
- Title(参考訳): 船衝突回避のための説明可能なAI:意思決定プロセスのデコードと行動意図
- Authors: Hitoshi Yoshioka, Hirotada Hashimoto,
- Abstract要約: 本研究は、船舶衝突回避のための説明可能なAIを開発した。
Q値分析と注意機構を用いて行動意図を識別する試みを行った。
開発されたAIは、さまざまな渋滞レベル下での衝突を安全に回避できることが確認された。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: This study developed an explainable AI for ship collision avoidance. Initially, a critic network composed of sub-task critic networks was proposed to individually evaluate each sub-task in collision avoidance to clarify the AI decision-making processes involved. Additionally, an attempt was made to discern behavioral intentions through a Q-value analysis and an Attention mechanism. The former focused on interpreting intentions by examining the increment of the Q-value resulting from AI actions, while the latter incorporated the significance of other ships in the decision-making process for collision avoidance into the learning objective. AI's behavioral intentions in collision avoidance were visualized by combining the perceived collision danger with the degree of attention to other ships. The proposed method was evaluated through a numerical experiment. The developed AI was confirmed to be able to safely avoid collisions under various congestion levels, and AI's decision-making process was rendered comprehensible to humans. The proposed method not only facilitates the understanding of DRL-based controllers/systems in the ship collision avoidance task but also extends to any task comprising sub-tasks.
- Abstract(参考訳): 本研究は、船舶衝突回避のための説明可能なAIを開発した。
当初、サブタスク批判ネットワークからなる批判ネットワークが提案され、衝突回避において各サブタスクを個別に評価し、関連するAI意思決定プロセスを明らかにする。
さらに,Q値分析と注意機構を用いて行動意図を識別する試みを行った。
前者は、AI行動によるQ値の増大を調べることによって意図を解釈することに焦点を当て、後者は、衝突回避のための意思決定プロセスにおいて、他の船の意義を学習目的に取り入れた。
衝突回避におけるAIの行動意図は、認識された衝突の危険と他の船への注意度を組み合わせることで可視化された。
提案手法は数値実験により評価した。
開発されたAIは、さまざまな渋滞レベル下での衝突を安全に回避できることが確認され、AIの意思決定プロセスは人間にとって理解しやすいものになった。
提案手法は,船体衝突回避タスクにおけるDRLベースのコントローラ/システム理解を容易にするだけでなく,サブタスクを構成するタスクにも拡張する。
関連論文リスト
- Convergence of Communications, Control, and Machine Learning for Secure
and Autonomous Vehicle Navigation [78.60496411542549]
接続された自動運転車(CAV)は、交通事故におけるヒューマンエラーを低減し、道路効率を向上し、様々なタスクを実行する。これらのメリットを享受するためには、CAVが目標とする目的地へ自律的にナビゲートする必要がある。
本稿では,通信理論,制御理論,機械学習の収束を利用して,効果的なCAVナビゲーションを実現する手法を提案する。
論文 参考訳(メタデータ) (2023-07-05T21:38:36Z) - Safe Explicable Planning [3.3869539907606603]
安全計画(SEP:Safe Explicable Planning)を提案する。
提案手法は,複数のモデルから派生した複数の対象の考察を一般化する。
これらの手法の望ましい理論的性質を検証するための公式な証明を提供する。
論文 参考訳(メタデータ) (2023-04-04T21:49:02Z) - Object-Aware Regularization for Addressing Causal Confusion in Imitation
Learning [131.1852444489217]
本稿では,オブジェクト認識方式で模倣ポリシーを標準化する手法として,オブジェクト認識型RegularizatiOn(OREO)を提案する。
我々の主な考えは、政策が専門家の行動と強く相関するニュアンス変数を悪用することを防ぐために、政策が全ての意味オブジェクトに均一に出席することを奨励することである。
論文 参考訳(メタデータ) (2021-10-27T01:56:23Z) - Modeling Interactions of Autonomous Vehicles and Pedestrians with Deep
Multi-Agent Reinforcement Learning for Collision Avoidance [20.542143534865154]
本研究では,対話系列をマルコフ決定過程 (MDP) としてモデル化し,深部強化学習 (DRL) アルゴリズムを用いて解析する。
知的歩行者行動の異なるPCAMシステムは,エージェントの衝突速度と結果の交通流効率に応じてベンチマークを行う。
その結果, AV は実験条件の大部分で完全に衝突を緩和できることがわかった。
論文 参考訳(メタデータ) (2021-09-30T17:06:39Z) - Balancing detectability and performance of attacks on the control
channel of Markov Decision Processes [77.66954176188426]
マルコフ決定過程(MDPs)の制御チャネルにおける最適ステルス毒素攻撃の設計問題について検討する。
この研究は、MDPに適用された敵国・毒殺攻撃や強化学習(RL)手法に対する研究コミュニティの最近の関心に動機づけられている。
論文 参考訳(メタデータ) (2021-09-15T09:13:10Z) - Congestion-aware Multi-agent Trajectory Prediction for Collision
Avoidance [110.63037190641414]
渋滞パターンを明示的に学習し、新しい「センス--学習--Reason--予測」フレームワークを考案する。
学習段階を2段階に分解することで、「学生」は「教師」から文脈的手がかりを学習し、衝突のない軌跡を生成する。
実験では,提案モデルが合成データセットにおいて衝突のない軌道予測を生成できることを実証する。
論文 参考訳(メタデータ) (2021-03-26T02:42:33Z) - Adversarial Interaction Attack: Fooling AI to Misinterpret Human
Intentions [46.87576410532481]
現在の大きな成功にもかかわらず、ディープラーニングベースのAIシステムは、微妙な敵対的ノイズによって容易に騙されることを示した。
骨格に基づくヒトの相互作用のケーススタディに基づき、相互作用に対する新しい敵対的攻撃を提案する。
本研究では、安全クリティカルなアプリケーションにAIシステムをデプロイする際に慎重に対処する必要があるAIと人間との相互作用ループにおける潜在的なリスクを強調します。
論文 参考訳(メタデータ) (2021-01-17T16:23:20Z) - A Combination of Theta*, ORCA and Push and Rotate for Multi-agent
Navigation [0.0]
集中制御器が存在しない場合の静的環境におけるマルチエージェントナビゲーションの問題点について検討する。
各エージェントは個別に制御され、目標を達成するために3つのアルゴリズムコンポーネントに依存します。
論文 参考訳(メタデータ) (2020-08-03T22:22:43Z) - Deep Reinforcement Learning Controller for 3D Path-following and
Collision Avoidance by Autonomous Underwater Vehicles [0.0]
自律型水中車両のような複雑なシステムでは、意思決定は簡単ではない。
本稿では,最先端のDeep Reinforcement Learning(DRL)技術を用いた解を提案する。
本研究は,自律走行車システムにおける人間レベルの意思決定に向けた衝突回避と経路追従におけるDRLの実現可能性を示すものである。
論文 参考訳(メタデータ) (2020-06-17T11:54:53Z) - Adversarial vs behavioural-based defensive AI with joint, continual and
active learning: automated evaluation of robustness to deception, poisoning
and concept drift [62.997667081978825]
人工知能(AI)の最近の進歩は、サイバーセキュリティのための行動分析(UEBA)に新たな能力をもたらした。
本稿では、検出プロセスを改善し、人間の専門知識を効果的に活用することにより、この攻撃を効果的に軽減するソリューションを提案する。
論文 参考訳(メタデータ) (2020-01-13T13:54:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。