論文の概要: Attentional Bottleneck: Towards an Interpretable Deep Driving Network
- arxiv url: http://arxiv.org/abs/2005.04298v1
- Date: Fri, 8 May 2020 21:51:15 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-05 12:34:27.684240
- Title: Attentional Bottleneck: Towards an Interpretable Deep Driving Network
- Title(参考訳): 注意のボトルネック: 解釈可能な深層運転ネットワークに向けて
- Authors: Jinkyu Kim, Mayank Bansal
- Abstract要約: 透明性向上を目的としたアーキテクチャであるAttentional Bottleneckを提案する。
私たちのキーとなる考え方は、視覚的な注意をモデルが使っている入力のどの側面を、情報のボトルネックと組み合わせることです。
これはスパースで解釈可能なアテンションマップを提供するだけでなく、精度をモデル化するためのコストなしで、この透明性を追加する。
- 参考スコア(独自算出の注目度): 9.594432031144716
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Deep neural networks are a key component of behavior prediction and motion
generation for self-driving cars. One of their main drawbacks is a lack of
transparency: they should provide easy to interpret rationales for what
triggers certain behaviors. We propose an architecture called Attentional
Bottleneck with the goal of improving transparency. Our key idea is to combine
visual attention, which identifies what aspects of the input the model is
using, with an information bottleneck that enables the model to only use
aspects of the input which are important. This not only provides sparse and
interpretable attention maps (e.g. focusing only on specific vehicles in the
scene), but it adds this transparency at no cost to model accuracy. In fact, we
find slight improvements in accuracy when applying Attentional Bottleneck to
the ChauffeurNet model, whereas we find that the accuracy deteriorates with a
traditional visual attention model.
- Abstract(参考訳): ディープニューラルネットワークは、自動運転車の行動予測と動き生成の重要なコンポーネントである。
彼らの主な欠点の1つは、透明性の欠如である。
透明性向上を目的としたアーキテクチャであるAttentional Bottleneckを提案する。
私たちのキーとなるアイデアは、モデルが使用している入力のどの側面を識別する視覚的注意と、重要な入力のアスペクトのみをモデルが使用できるようにする情報ボトルネックを組み合わせることです。
これは、スパースで解釈可能なアテンションマップ(例えば、シーン内の特定の車両のみに焦点を当てる)を提供するだけでなく、この透明性を精度をモデル化するコストもかからない。
実際、ChauffeurNetモデルに適用した場合の精度は若干改善されているが、従来の視覚的注意モデルでは精度が劣化していることがわかった。
関連論文リスト
- On the Surprising Effectiveness of Attention Transfer for Vision Transformers [118.83572030360843]
従来の知恵は、事前学習型視覚変換器(ViT)が有用な表現を学習することで、下流のパフォーマンスを向上させることを示唆している。
予備学習で学んだ特徴や表現は必須ではない。
論文 参考訳(メタデータ) (2024-11-14T18:59:40Z) - OOSTraj: Out-of-Sight Trajectory Prediction With Vision-Positioning Denoising [49.86409475232849]
軌道予測はコンピュータビジョンと自律運転の基本である。
この分野における既存のアプローチは、しばしば正確で完全な観測データを仮定する。
本稿では,視覚的位置決め技術を利用した視線外軌道予測手法を提案する。
論文 参考訳(メタデータ) (2024-04-02T18:30:29Z) - Context-empowered Visual Attention Prediction in Pedestrian Scenarios [0.0]
本稿では,歩行者の視覚的注意予測における3つの課題に対処する,新しいエンコーダ・デコーダアーキテクチャであるContext-SalNETを提案する。
まず、Context-SalNETは、エンコーダ・デコーダモデルの潜在空間における緊急性と安全性の優先性を明示的にモデル化する。
第2に,指数重み付き平均二乗誤差損失 (ew-MSE) を提案する。
論文 参考訳(メタデータ) (2022-10-30T19:38:17Z) - Bayesian Attention Belief Networks [59.183311769616466]
注意に基づくニューラルネットワークは、幅広いタスクにおいて最先端の結果を得た。
本稿では,非正規化注意重みをモデル化してデコーダネットワークを構築するベイズ的注意信念ネットワークについて紹介する。
提案手法は, 精度, 不確実性推定, ドメイン間の一般化, 敵攻撃において, 決定論的注意と最先端の注意よりも優れていることを示す。
論文 参考訳(メタデータ) (2021-06-09T17:46:22Z) - Is Sparse Attention more Interpretable? [52.85910570651047]
我々は,空間が注意力を説明可能性ツールとして活用する能力にどのように影響するかを検討する。
入力とインデックス付き中間表現の間には弱い関係しか存在しません。
この設定では、疎度を誘導することで、モデルの振る舞いを理解するためのツールとして注意が使用できることが、より確実になる可能性があることを観察する。
論文 参考訳(メタデータ) (2021-06-02T11:42:56Z) - SparseBERT: Rethinking the Importance Analysis in Self-attention [107.68072039537311]
トランスフォーマーベースのモデルは、その強力な能力のために自然言語処理(NLP)タスクに人気がある。
事前学習モデルの注意マップの可視化は,自己着脱機構を理解するための直接的な方法の一つである。
本研究では,sparsebert設計の指導にも適用可能な微分可能アテンションマスク(dam)アルゴリズムを提案する。
論文 参考訳(メタデータ) (2021-02-25T14:13:44Z) - Fine-Grained Vehicle Perception via 3D Part-Guided Visual Data
Augmentation [77.60050239225086]
実画像中の車両に動的部品を付加した3次元自動車モデルによる効果的なトレーニングデータ生成プロセスを提案する。
私達のアプローチは人間の相互作用なしで完全に自動です。
VUS解析用マルチタスクネットワークとVHI解析用マルチストリームネットワークを提案する。
論文 参考訳(メタデータ) (2020-12-15T03:03:38Z) - Explaining Autonomous Driving by Learning End-to-End Visual Attention [25.09407072098823]
現在のディープラーニングベースの自律運転アプローチは、いくつかの制御されたシナリオにおいて、本番環境へのデプロイも実現している。
最も人気があり魅力的なアプローチの1つは、センサーが認識したデータから直接車両の制御を学習することに依存している。
このアプローチの主な欠点は、他の学習問題と同様に、説明可能性の欠如である。実際、ディープネットワークは、なぜそのような決定を下されたのかを何のフィードバックも与えずに、これまで見られた駆動パターンによって予測を出力するブラックボックスとして機能する。
論文 参考訳(メタデータ) (2020-06-05T10:12:31Z) - SegVoxelNet: Exploring Semantic Context and Depth-aware Features for 3D
Vehicle Detection from Point Cloud [39.99118618229583]
上記の2つの問題に対処する統合モデルSegVoxelNetを提案する。
鳥の視線における自由電荷セマンティックセグメンテーションマスクを活用するために,セマンティックコンテクストエンコーダを提案する。
分布差を明示的にモデル化する新規な深度認識ヘッドを設計し、深度認識ヘッドの各部分を目標検出範囲に集中させる。
論文 参考訳(メタデータ) (2020-02-13T02:42:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。