論文の概要: Real-Time Incremental Explanations for Object Detectors in Autonomous Driving
- arxiv url: http://arxiv.org/abs/2408.11963v2
- Date: Fri, 07 Mar 2025 17:38:59 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-03-10 12:24:08.867119
- Title: Real-Time Incremental Explanations for Object Detectors in Autonomous Driving
- Title(参考訳): 自動走行における物体検出器のリアルタイムインクリメンタル説明
- Authors: Santiago Calderón-Peña, Hana Chockler, David A. Kelly,
- Abstract要約: 本稿では,オブジェクト検出のためのリアルタイムブラックボックス説明可能性のためのアルゴリズムとツールであるIncXを紹介する。
IncX は正則写像の線形変換に基づいており、十分説明できる。
我々は、自動運転の4つの広く使われているビデオデータセットの実装を評価した。
- 参考スコア(独自算出の注目度): 5.639451539396458
- License:
- Abstract: Object detectors are widely used in safety-critical real-time applications such as autonomous driving. Explainability is especially important for safety-critical applications, and due to the variety of object detectors and their often proprietary nature, black-box explainability tools are needed. However, existing black-box explainability tools for AI models rely on multiple model calls, rendering them impractical for real-time use. In this paper, we introduce IncX, an algorithm and a tool for real-time black-box explainability for object detectors. The algorithm is based on linear transformations of saliency maps, producing sufficient explanations. We evaluate our implementation on four widely used video datasets of autonomous driving and demonstrate that IncX's explanations are comparable in quality to the state-of-the-art and are computed two orders of magnitude faster than the state-of-the-art, making them usable in real time.
- Abstract(参考訳): オブジェクト検出器は、自律運転のような安全クリティカルなリアルタイムアプリケーションで広く利用されている。
説明可能性(Explainability)は、安全に重要なアプリケーションにとって特に重要であり、さまざまなオブジェクト検出器と、しばしば独自の性質のために、ブラックボックスの説明可能性ツールが必要である。
しかし、既存のAIモデルのブラックボックス説明可能性ツールは、複数のモデルコールに依存しており、リアルタイム使用には実用的ではない。
本稿では,オブジェクト検出のためのリアルタイムブラックボックス説明可能性のためのアルゴリズムとツールであるIncXを紹介する。
このアルゴリズムは、サリエンシマップの線形変換に基づいており、十分説明できる。
我々は、自動運転車で広く使われている4つのビデオデータセットの実装を評価し、IncXの説明が最先端技術に匹敵する品質であり、最先端技術よりも2桁高速に計算され、リアルタイムに利用可能であることを実証した。
関連論文リスト
- Better Verified Explanations with Applications to Incorrectness and Out-of-Distribution Detection [7.603986267721877]
We present VeriX+, which is significantly improves both the size and the generation time of confirmed explanations。
サイズと時間のトレードオフを提供するために、QuickXplainアルゴリズムを私たちの設定に適応する方法を示します。
また、検証された説明の応用についても検討し、説明サイズが誤検出と分布外検出の両方に有用な指標であることを示す。
論文 参考訳(メタデータ) (2024-09-04T20:20:37Z) - 2DP-2MRC: 2-Dimensional Pointer-based Machine Reading Comprehension Method for Multimodal Moment Retrieval [27.245689792428557]
モーメント検索は、与えられた自然言語クエリに基づいて、トリミングされていないビデオの中で最も関連性の高い瞬間を見つけることを目的としている。
既存のソリューションは、モーメントベースの方法とクリップベースの方法に大まかに分類することができる。
本稿では,クリップベース手法における不正確なローカライゼーションの問題に対処するため,新しい2次元ポインターベース2DP-2MRCモデルを提案する。
論文 参考訳(メタデータ) (2024-06-10T11:53:29Z) - Fast Dual-Regularized Autoencoder for Sparse Biological Data [65.268245109828]
本研究では,近傍正規化行列補完問題に対する浅層オートエンコーダを開発する。
本研究は, 薬物と薬物の相互作用と薬物の放出関連性を予測する上で, 既存の最先端技術に対するアプローチの速度と精度の優位性を実証する。
論文 参考訳(メタデータ) (2024-01-30T01:28:48Z) - Dual feature-based and example-based explanation methods [2.024925013349319]
地域的・グローバルな説明に対する新たなアプローチが提案されている。
これは、説明されたインスタンスの周りの有限個の点に対して構築された凸包を選択することに基づいている。
提案されたアルゴリズムのコードは利用可能である。
論文 参考訳(メタデータ) (2024-01-29T16:53:04Z) - ODAM: Gradient-based instance-specific visual explanations for object
detection [51.476702316759635]
勾配重み付き物体検出器活性化マップ(ODAM)
ODAMは、各予測属性に対する検出器の決定に対する領域の影響を示す熱マップを生成する。
そこで本研究では,重複検出対象を識別するために,各予測に対してモデルの説明情報を考慮したOdam-NMSを提案する。
論文 参考訳(メタデータ) (2023-04-13T09:20:26Z) - DExT: Detector Explanation Toolkit [5.735035463793008]
最先端の物体検出器は、高度に非線形な内部計算のためにブラックボックスとして扱われる。
本稿では,全検出器決定の全体的説明を行うオープンソースインタプリタ説明ツールキット(DExT)を提案する。
論文 参考訳(メタデータ) (2022-12-21T23:28:53Z) - Detecting Rotated Objects as Gaussian Distributions and Its 3-D
Generalization [81.29406957201458]
既存の検出方法は、パラメータ化バウンディングボックス(BBox)を使用して(水平)オブジェクトをモデル化し、検出する。
このような機構は回転検出に有効な回帰損失を構築するのに基本的な限界があると主張する。
回転した物体をガウス分布としてモデル化することを提案する。
2次元から3次元へのアプローチを、方向推定を扱うアルゴリズム設計により拡張する。
論文 参考訳(メタデータ) (2022-09-22T07:50:48Z) - The Manifold Hypothesis for Gradient-Based Explanations [55.01671263121624]
勾配に基づく説明アルゴリズムは知覚的に整合した説明を提供する。
特徴属性がデータの接する空間と一致しているほど、知覚的に一致している傾向にあることを示す。
説明アルゴリズムは、その説明をデータ多様体と整合させるよう積極的に努力すべきである。
論文 参考訳(メタデータ) (2022-06-15T08:49:24Z) - Lifting 2D Object Locations to 3D by Discounting LiDAR Outliers across
Objects and Views [70.1586005070678]
本稿では,2次元マスクオブジェクトの予測と生のLiDAR点雲を自動的に3次元境界ボックスに変換するシステムを提案する。
これらの手法は, より複雑なパイプラインや3Dモデル, 付加的な人為的な事前情報ソースを使用するにもかかわらず, 従来よりもはるかに優れていた。
論文 参考訳(メタデータ) (2021-09-16T13:01:13Z) - Black-box Explanation of Object Detectors via Saliency Maps [66.745167677293]
対象検出器の予測のための視覚的説明を生成するD-RISEを提案する。
本稿では, YOLOv3などの1段検出器やFaster-RCNNのような2段検出器など, 異なる対象検出器に容易にD-RISEを適用可能であることを示す。
論文 参考訳(メタデータ) (2020-06-05T02:13:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。