論文の概要: Feasible Action Space Reduction for Quantifying Causal Responsibility in Continuous Spatial Interactions
- arxiv url: http://arxiv.org/abs/2505.17739v1
- Date: Fri, 23 May 2025 11:02:44 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-26 18:08:34.018013
- Title: Feasible Action Space Reduction for Quantifying Causal Responsibility in Continuous Spatial Interactions
- Title(参考訳): 連続空間相互作用における因果責任の定量化のための行動空間削減の可能性
- Authors: Ashwin George, Luciano Cavalcante Siebert, David A. Abbink, Arkady Zgonnikov,
- Abstract要約: Feasible Action-Space Reduction (FeAR) は、個別のアクションを持つグリッドワールドにおける因果責任の指標として提案されている。
実世界の相互作用は連続的な行動空間を含むため,空間-連続的相互作用における因果責任を測定するためのFeAR計量の定式化を提案する。
- 参考スコア(独自算出の注目度): 2.9998889086656586
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: Understanding the causal influence of one agent on another agent is crucial for safely deploying artificially intelligent systems such as automated vehicles and mobile robots into human-inhabited environments. Existing models of causal responsibility deal with simplified abstractions of scenarios with discrete actions, thus, limiting real-world use when understanding responsibility in spatial interactions. Based on the assumption that spatially interacting agents are embedded in a scene and must follow an action at each instant, Feasible Action-Space Reduction (FeAR) was proposed as a metric for causal responsibility in a grid-world setting with discrete actions. Since real-world interactions involve continuous action spaces, this paper proposes a formulation of the FeAR metric for measuring causal responsibility in space-continuous interactions. We illustrate the utility of the metric in prototypical space-sharing conflicts, and showcase its applications for analysing backward-looking responsibility and in estimating forward-looking responsibility to guide agent decision making. Our results highlight the potential of the FeAR metric for designing and engineering artificial agents, as well as for assessing the responsibility of agents around humans.
- Abstract(参考訳): あるエージェントの他のエージェントに対する因果的影響を理解することは、自動車両や移動ロボットなどの人工知能システムを人間の居住環境に安全に展開するために重要である。
既存の因果責任モデルでは、離散的な行動を伴うシナリオの単純化に対処し、空間的相互作用における責任を理解する際に現実世界の使用を制限する。
空間的に相互作用するエージェントがシーンに埋め込まれ、各瞬間にアクションに従う必要があるという仮定に基づいて、個別のアクションを持つグリッドワールドにおける因果責任の指標として、FeAR(Feasible Action-Space Reduction)が提案された。
実世界の相互作用は連続的な行動空間を含むため,空間-連続的相互作用における因果責任を測定するためのFeAR計量の定式化を提案する。
本稿では, 原型的空間共有紛争における指標の有用性を説明し, 逆向きの責任を分析し, エージェントの意思決定を導くための前向きの責任を推定するための応用例を示す。
以上の結果から, 人工エージェントの設計・工学におけるFeAR測定の有用性と, 人体周辺エージェントの責任評価の可能性を強調した。
関連論文リスト
- ARFlow: Human Action-Reaction Flow Matching with Physical Guidance [34.33083853308399]
Action-Reaction Flow Matchingは、直接アクションから反応へのマッピングを確立する新しいフレームワークである。
提案手法では,速度場ではなく人体の動きを直接出力するx1-prediction法と,サンプリング中の身体の侵入を効果的に防止するトレーニング不要で勾配に基づく物理的誘導機構を導入する。
論文 参考訳(メタデータ) (2025-03-21T09:41:24Z) - Causal Responsibility Attribution for Human-AI Collaboration [62.474732677086855]
本稿では,人間のAIシステムにおける責任を体系的に評価するために,構造因果モデル(SCM)を用いた因果的枠組みを提案する。
2つのケーススタディは、多様な人間とAIのコラボレーションシナリオにおけるフレームワークの適応性を示している。
論文 参考訳(メタデータ) (2024-11-05T17:17:45Z) - Learning responsibility allocations for multi-agent interactions: A differentiable optimization approach with control barrier functions [12.074590482085831]
責任レンズを介して安全なマルチエージェントインタラクションを規定する要因を定式化する。
本稿では,制御障壁関数と微分可能最適化に基づくデータ駆動モデリング手法を提案する。
論文 参考訳(メタデータ) (2024-10-09T20:20:41Z) - Variable-Agnostic Causal Exploration for Reinforcement Learning [56.52768265734155]
強化学習のための新しいフレームワークVACERL(Variable-Agnostic Causal Exploration for Reinforcement Learning)を導入する。
本手法は,注目機構を用いて,重要変数に関連する重要な観測行動ステップを自動的に同定する。
これらのステップを接続する因果グラフを構築し、エージェントをタスク完了に対する因果的影響の大きい観察-作用ペアへと導く。
論文 参考訳(メタデータ) (2024-07-17T09:45:27Z) - AntEval: Evaluation of Social Interaction Competencies in LLM-Driven
Agents [65.16893197330589]
大規模言語モデル(LLM)は、幅広いシナリオで人間の振る舞いを再現する能力を示した。
しかし、複雑なマルチ文字のソーシャルインタラクションを扱う能力については、まだ完全には研究されていない。
本稿では,新しいインタラクションフレームワークと評価手法を含むマルチエージェントインタラクション評価フレームワーク(AntEval)を紹介する。
論文 参考訳(メタデータ) (2024-01-12T11:18:00Z) - SAFE-SIM: Safety-Critical Closed-Loop Traffic Simulation with Diffusion-Controllable Adversaries [94.84458417662407]
制御可能なクローズドループ安全クリティカルシミュレーションフレームワークであるSAFE-SIMを紹介する。
提案手法は,1)現実の環境を深く反映した現実的な長距離安全クリティカルシナリオの生成,2)より包括的でインタラクティブな評価のための制御可能な敵行動の提供,の2つの利点をもたらす。
複数のプランナにまたがるnuScenesとnuPlanデータセットを使用して、我々のフレームワークを実証的に検証し、リアリズムと制御性の両方の改善を実証した。
論文 参考訳(メタデータ) (2023-12-31T04:14:43Z) - Interactive Autonomous Navigation with Internal State Inference and
Interactivity Estimation [58.21683603243387]
本稿では,関係時間的推論を伴う3つの補助的タスクを提案し,それらを標準のディープラーニングフレームワークに統合する。
これらの補助的なタスクは、他の対話的エージェントの行動パターンを推測するための追加の監視信号を提供する。
提案手法は,標準評価指標の観点から,頑健かつ最先端のパフォーマンスを実現する。
論文 参考訳(メタデータ) (2023-11-27T18:57:42Z) - Interaction Transformer for Human Reaction Generation [61.22481606720487]
本稿では,時間的,空間的両方の注意を持つトランスフォーマーネットワークからなる対話型トランスフォーマー(InterFormer)を提案する。
我々の手法は一般的であり、より複雑で長期的な相互作用を生成するのに利用できる。
論文 参考訳(メタデータ) (2022-07-04T19:30:41Z) - Grounded Relational Inference: Domain Knowledge Driven Explainable Autonomous Driving [47.22329993674051]
我々は、人間のドメイン知識とモデル固有の因果関係の両方に整合した説明を生成する説明可能なモデルを開発することを目的とする。
特に、自律運転における重要なビルディングブロック、マルチエージェントインタラクションモデリングに焦点を当てる。
シミュレーションと実環境設定の両方で対話的な交通シナリオをモデル化できることを実証する。
論文 参考訳(メタデータ) (2021-02-23T19:34:32Z) - On the Sensory Commutativity of Action Sequences for Embodied Agents [2.320417845168326]
群論の数学的形式論に基づくエンボディエージェントの知覚について検討する。
本稿では,エージェントの自由度が環境に与える影響を計測する感覚コミュニケーション確率基準を提案する。
本研究では,SCPと行動系列の可換性を用いて環境中の物体を学習する方法を実証的に説明する。
論文 参考訳(メタデータ) (2020-02-13T16:58:23Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。