論文の概要: Generating Causal Explanations of Vehicular Agent Behavioural Interactions with Learnt Reward Profiles
- arxiv url: http://arxiv.org/abs/2503.14557v1
- Date: Tue, 18 Mar 2025 01:53:59 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-03-20 15:22:03.408416
- Title: Generating Causal Explanations of Vehicular Agent Behavioural Interactions with Learnt Reward Profiles
- Title(参考訳): 学習者リワードプロファイルを用いた車体エージェントの行動相互作用の因果説明
- Authors: Rhys Howard, Nick Hawes, Lars Kunze,
- Abstract要約: 我々はエージェント間相互作用の説明を因果的に推測できるようなエージェントに対する報酬指標の重み付けを学習する。
3つの実世界の運転データセットに対して定量的かつ定性的にアプローチを検証する。
- 参考スコア(独自算出の注目度): 13.450023647228843
- License:
- Abstract: Transparency and explainability are important features that responsible autonomous vehicles should possess, particularly when interacting with humans, and causal reasoning offers a strong basis to provide these qualities. However, even if one assumes agents act to maximise some concept of reward, it is difficult to make accurate causal inferences of agent planning without capturing what is of importance to the agent. Thus our work aims to learn a weighting of reward metrics for agents such that explanations for agent interactions can be causally inferred. We validate our approach quantitatively and qualitatively across three real-world driving datasets, demonstrating a functional improvement over previous methods and competitive performance across evaluation metrics.
- Abstract(参考訳): 透明性と説明責任は、特に人間と対話する場合に責任を負う自動運転車が持つべき重要な特徴であり、因果推論はこれらの品質を提供するための強力な基盤を提供する。
しかし、たとえエージェントが報酬の概念を最大化するために行動していると仮定しても、エージェントにとって重要なことを把握せずに、エージェント計画の正確な因果推論を行うことは困難である。
そこで本研究は,エージェント間相互作用の説明を因果的に推測できるように,エージェントに対する報酬指標の重み付けを学習することを目的とする。
3つの実世界の運転データセットに対して,我々のアプローチを定量的かつ質的に検証し,従来の手法よりも機能的な改善と評価指標間の競合性能を示す。
関連論文リスト
- Interactive Agents to Overcome Ambiguity in Software Engineering [61.40183840499932]
AIエージェントは、あいまいで不明確なユーザー指示に基づいて、タスクを自動化するためにますますデプロイされている。
不安定な仮定をし、明確な質問をしないことは、最適以下の結果につながる可能性がある。
対話型コード生成設定において,LLMエージェントが不明瞭な命令を処理する能力について,プロプライエタリモデルとオープンウェイトモデルを評価して検討する。
論文 参考訳(メタデータ) (2025-02-18T17:12:26Z) - Understanding Individual Agent Importance in Multi-Agent System via Counterfactual Reasoning [20.76991315856237]
本稿では,エージェントの重要度を評価する新しいエージェントレベルの説明手法であるEMAIを提案する。
反実的推論にインスパイアされたエージェントのランダム化作用による報酬の変化は、その重要性を示唆している。
EMAIは、ベースラインよりも説明の忠実度が高く、実践的応用においてより効果的なガイダンスを提供する。
論文 参考訳(メタデータ) (2024-12-20T07:24:43Z) - Learning responsibility allocations for multi-agent interactions: A differentiable optimization approach with control barrier functions [12.074590482085831]
責任レンズを介して安全なマルチエージェントインタラクションを規定する要因を定式化する。
本稿では,制御障壁関数と微分可能最適化に基づくデータ駆動モデリング手法を提案する。
論文 参考訳(メタデータ) (2024-10-09T20:20:41Z) - Enhancing Trust in Autonomous Agents: An Architecture for Accountability and Explainability through Blockchain and Large Language Models [0.3495246564946556]
この研究は、ROSベースの移動ロボットに実装された説明可能性と説明可能性のアーキテクチャを示す。
提案されたソリューションは2つの主要コンポーネントで構成されている。まず、説明責任を提供するブラックボックスのような要素で、ブロックチェーン技術によって達成されるアンチタンパ特性を特徴とする。
第二に、前述のブラックボックスに含まれるデータに対して、Large Language Models(LLM)の機能を利用することで、自然言語の説明を生成するコンポーネントである。
論文 参考訳(メタデータ) (2024-03-14T16:57:18Z) - Tell Me More! Towards Implicit User Intention Understanding of Language
Model Driven Agents [110.25679611755962]
現在の言語モデル駆動エージェントは、しばしば効果的なユーザ参加のメカニズムを欠いている。
Intention-in-Interaction (IN3) は明示的なクエリを通してユーザの暗黙の意図を検査するための新しいベンチマークである。
私たちは、タスクの曖昧さを積極的に評価し、ユーザの意図を問う強力なモデルであるMistral-Interactを経験的に訓練し、それらを実行可能な目標へと洗練させます。
論文 参考訳(メタデータ) (2024-02-14T14:36:30Z) - Interactive Autonomous Navigation with Internal State Inference and
Interactivity Estimation [58.21683603243387]
本稿では,関係時間的推論を伴う3つの補助的タスクを提案し,それらを標準のディープラーニングフレームワークに統合する。
これらの補助的なタスクは、他の対話的エージェントの行動パターンを推測するための追加の監視信号を提供する。
提案手法は,標準評価指標の観点から,頑健かつ最先端のパフォーマンスを実現する。
論文 参考訳(メタデータ) (2023-11-27T18:57:42Z) - Behavioral Analysis of Vision-and-Language Navigation Agents [21.31684388423088]
VLN(Vision-and-Language Navigation)エージェントは、周囲に基づいて行動の指示を下すことができる。
本研究では,エージェントの振る舞いを専門知識に基づいて研究する手法を開発した。
論文 参考訳(メタデータ) (2023-07-20T11:42:24Z) - Robust Event-Driven Interactions in Cooperative Multi-Agent Learning [0.0]
本稿では,マルチエージェント学習システムにおけるエージェント間の通信を,基礎となるマルコフ決定プロセスの本質的ロバスト性を利用して削減する手法を提案する。
いわゆるロバストネス代理関数(オフライン)を計算し、エージェントがシステム内の他のエージェントを更新する前に、その状態の測定値がどれくらい逸脱するかを保守的に示す。
これにより、完全に分散された決定関数が実現され、エージェントが他を更新する必要があるかどうかを判断できるようになる。
論文 参考訳(メタデータ) (2022-04-07T11:00:39Z) - Explaining Reinforcement Learning Policies through Counterfactual
Trajectories [147.7246109100945]
人間の開発者は、RLエージェントがテスト時にうまく機能することを検証しなければならない。
本手法では, エージェントの挙動をより広い軌道分布で示すことにより, エージェントの挙動を分布変化下で表現する。
本研究では,2つのエージェント検証タスクのうちの1つに対して,ベースライン法よりも優れたスコアを得られることを示す。
論文 参考訳(メタデータ) (2022-01-29T00:52:37Z) - Maximizing Information Gain in Partially Observable Environments via
Prediction Reward [64.24528565312463]
本稿では,深いRLエージェントに対する信念に基づく報酬の活用という課題に取り組む。
負のエントロピーと予測される予測報酬の正確な誤差を導出する。
この洞察は、予測報酬を用いたいくつかの分野の理論的動機を与える。
論文 参考訳(メタデータ) (2020-05-11T08:13:49Z) - Self-Attention Attribution: Interpreting Information Interactions Inside
Transformer [89.21584915290319]
本稿では,トランスフォーマー内の情報相互作用を解釈する自己帰属属性法を提案する。
本研究は,BERT に対する非目標攻撃の実装において,その属性を敵対パターンとして用いることができることを示す。
論文 参考訳(メタデータ) (2020-04-23T14:58:22Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。