論文の概要: Textual Explanations for Automated Commentary Driving
- arxiv url: http://arxiv.org/abs/2304.08178v1
- Date: Wed, 12 Apr 2023 21:50:20 GMT
- ステータス: 処理完了
- システム内更新日: 2023-04-23 04:25:49.764461
- Title: Textual Explanations for Automated Commentary Driving
- Title(参考訳): 自動コメント運転のためのテキスト説明
- Authors: Marc Alexander K\"uhn, Daniel Omeiza, Lars Kunze
- Abstract要約: 最先端(SOTA)予測と説明モデルを徹底的に評価し、検証する。
ベースラインアーキテクチャを改良した新しい説明モデルを開発した。
私たちの研究は、将来の説明可能な自動運転車の実現に寄与します。
- 参考スコア(独自算出の注目度): 8.892940213636184
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The provision of natural language explanations for the predictions of
deep-learning-based vehicle controllers is critical as it enhances transparency
and easy audit. In this work, a state-of-the-art (SOTA) prediction and
explanation model is thoroughly evaluated and validated (as a benchmark) on the
new Sense--Assess--eXplain (SAX). Additionally, we developed a new explainer
model that improved over the baseline architecture in two ways: (i) an
integration of part of speech prediction and (ii) an introduction of special
token penalties. On the BLEU metric, our explanation generation technique
outperformed SOTA by a factor of 7.7 when applied on the BDD-X dataset. The
description generation technique is also improved by a factor of 1.3. Hence,
our work contributes to the realisation of future explainable autonomous
vehicles.
- Abstract(参考訳): ディープラーニングに基づく車両制御装置の予測のための自然言語説明の提供は、透明性と監査の容易さを高めるために重要である。
本研究は,新たなSense-Assess--eXplain (SAX) 上で,最先端(SOTA)予測と説明モデルを徹底的に評価し,(ベンチマークとして)検証するものである。
さらに,ベースラインアーキテクチャを2つの方法で改善した,新たな説明モデルを開発した。
(i)音声予測の一部の統合と活用
(ii)特例の罰則の導入。
BLEU測定では,BDD-Xデータセットに適用した場合,説明生成手法がSOTAの7.7倍に向上した。
また、記述生成技術は1.3の係数で改善される。
したがって、我々の研究は将来の説明可能な自動運転車の実現に寄与する。
関連論文リスト
- RAG-based Explainable Prediction of Road Users Behaviors for Automated Driving using Knowledge Graphs and Large Language Models [8.253092044813595]
本稿では,知識グラフと大規模言語モデルの推論能力を統合した,道路利用者の行動予測システムを提案する。
1)歩行者の横断行動の予測,2)車線変更操作の予測。
論文 参考訳(メタデータ) (2024-05-01T11:06:31Z) - QualEval: Qualitative Evaluation for Model Improvement [82.73561470966658]
モデル改善のための手段として,自動定性評価による定量的スカラー指標を付加するQualEvalを提案する。
QualEvalは強力なLCM推論器と新しいフレキシブルリニアプログラミングソルバを使用して、人間の読みやすい洞察を生成する。
例えば、その洞察を活用することで、Llama 2モデルの絶対性能が最大15%向上することを示す。
論文 参考訳(メタデータ) (2023-11-06T00:21:44Z) - Explaining Explainability: Towards Deeper Actionable Insights into Deep
Learning through Second-order Explainability [70.60433013657693]
2階説明可能なAI(SOXAI)は、最近インスタンスレベルからデータセットレベルまで説明可能なAI(XAI)を拡張するために提案されている。
そこで本研究では,SOXAIの動作可能な洞察に基づくトレーニングセットから無関係な概念を除外することで,モデルの性能を向上させることができることを示す。
論文 参考訳(メタデータ) (2023-06-14T23:24:01Z) - Explaining Hate Speech Classification with Model Agnostic Methods [0.9990687944474738]
本研究の目的は、ヘイトスピーチ予測と、その決定を支援するためにシステムによって生成された説明とのギャップを埋めることである。
これは、まずテキストの分類を予測し、その後、ポストホック、モデル非依存、代理的解釈可能性アプローチを提供することによって達成されている。
論文 参考訳(メタデータ) (2023-05-30T19:52:56Z) - Interpretable Sentence Representation with Variational Autoencoders and
Attention [0.685316573653194]
自然言語処理(NLP)における近年の表現学習技術の解釈可能性を高める手法を開発した。
変動オートエンコーダ (VAEs) は, 遅延生成因子の観測に有効である。
帰納的バイアスを持つ2つのモデルを構築し、潜在表現の情報を注釈付きデータなしで理解可能な概念に分離する。
論文 参考訳(メタデータ) (2023-05-04T13:16:15Z) - The Unreliability of Explanations in Few-Shot In-Context Learning [50.77996380021221]
我々は、テキスト上の推論、すなわち質問応答と自然言語推論を含む2つのNLPタスクに焦点を当てる。
入力と論理的に整合した説明は、通常より正確な予測を示す。
本稿では,説明の信頼性に基づいてモデル予測を校正する枠組みを提案する。
論文 参考訳(メタデータ) (2022-05-06T17:57:58Z) - Explainability in Process Outcome Prediction: Guidelines to Obtain
Interpretable and Faithful Models [77.34726150561087]
本稿では、プロセス結果予測の分野における説明可能性モデルと説明可能性モデルの忠実性を通して、説明可能性を定義する。
本稿では,イベントログの仕様に基づいて適切なモデルを選択することのできる,X-MOPというガイドラインのセットを提案する。
論文 参考訳(メタデータ) (2022-03-30T05:59:50Z) - Layer-wise Analysis of a Self-supervised Speech Representation Model [26.727775920272205]
自己教師付き学習アプローチは、音声表現モデルの事前学習に成功している。
事前訓練された表現そのものに符号化された情報のタイプや範囲についてはあまり研究されていない。
論文 参考訳(メタデータ) (2021-07-10T02:13:25Z) - Injecting Knowledge in Data-driven Vehicle Trajectory Predictors [82.91398970736391]
車両軌道予測タスクは、一般的に知識駆動とデータ駆動の2つの視点から取り組まれている。
本稿では,これら2つの視点を効果的に結合する「現実的残留ブロック」 (RRB) の学習を提案する。
提案手法は,残留範囲を限定し,その不確実性を考慮した現実的な予測を行う。
論文 参考訳(メタデータ) (2021-03-08T16:03:09Z) - Explain and Predict, and then Predict Again [6.865156063241553]
説明生成フェーズにおけるマルチタスク学習を用いたExPredを、効果的なトレードオフ説明と予測損失として提案します。
3つの多様な言語データセットに対するアプローチを幅広く評価しています。
論文 参考訳(メタデータ) (2021-01-11T19:36:52Z) - DAGA: Data Augmentation with a Generation Approach for Low-resource
Tagging Tasks [88.62288327934499]
線形化ラベル付き文に基づいて訓練された言語モデルを用いた新しい拡張手法を提案する。
本手法は, 教師付き設定と半教師付き設定の両方に適用可能である。
論文 参考訳(メタデータ) (2020-11-03T07:49:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。