論文の概要: Using Feasible Action-Space Reduction by Groups to fill Causal Responsibility Gaps in Spatial Interactions
- arxiv url: http://arxiv.org/abs/2602.22041v1
- Date: Wed, 25 Feb 2026 15:48:52 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-26 18:19:16.891122
- Title: Using Feasible Action-Space Reduction by Groups to fill Causal Responsibility Gaps in Spatial Interactions
- Title(参考訳): 空間相互作用における因果責任ギャップを埋めるグループによる行動空間削減の可能性
- Authors: Vassil Guenov, Ashwin George, Arkady Zgonnikov, David A. Abbink, Luciano Cavalcante Siebert,
- Abstract要約: 個人に焦点を当てた因果責任のメトリクスは、因果決定論の場合に失敗する。
集団の因果責任の計量を定式化する。
シナリオベースのシミュレーションを用いて、グループを考察する利点を説明する。
- 参考スコア(独自算出の注目度): 4.447507073529773
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: Heralding the advent of autonomous vehicles and mobile robots that interact with humans, responsibility in spatial interaction is burgeoning as a research topic. Even though metrics of responsibility tailored to spatial interactions have been proposed, they are mostly focused on the responsibility of individual agents. Metrics of causal responsibility focusing on individuals fail in cases of causal overdeterminism -- when many actors simultaneously cause an outcome. To fill the gaps in causal responsibility left by individual-focused metrics, we formulate a metric for the causal responsibility of groups. To identify assertive agents that are causally responsible for the trajectory of an affected agent, we further formalise the types of assertive influences and propose a tiering algorithm for systematically identifying assertive agents. Finally, we use scenario-based simulations to illustrate the benefits of considering groups and how the emergence of group effects vary with interaction dynamics and the proximity of agents.
- Abstract(参考訳): 人間と対話する自動運転車や移動ロボットの出現を象徴する空間的相互作用の責任は、研究トピックとして絶大である。
空間的相互作用に合わせた責任のメトリクスが提案されているが、それらは主に個々のエージェントの責任に焦点を当てている。
個人に焦点を当てた因果責任のメトリクスは、多くのアクターが同時に結果をもたらす因果決定論の場合に失敗する。
個別のメトリクスが残した因果責任のギャップを埋めるために、集団の因果責任の指標を定式化する。
影響を受けるエージェントの軌道に因果的に責任を負うアサーション・エージェントを同定するために,アサーション・エージェントのタイプを形式化し,アサーション・エージェントを体系的に識別するための階層化アルゴリズムを提案する。
最後に、シナリオに基づくシミュレーションを用いて、グループを考えることの利点と、グループ効果の出現が相互作用のダイナミクスやエージェントの近接によってどのように変化するかを説明する。
関連論文リスト
- The Why Behind the Action: Unveiling Internal Drivers via Agentic Attribution [63.61358761489141]
LLM(Large Language Model)ベースのエージェントは、カスタマーサービス、Webナビゲーション、ソフトウェアエンジニアリングといった現実世界のアプリケーションで広く使われている。
本稿では,タスク結果に関係なく,エージェントの動作を駆動する内部要因を識別する,テキスト汎用エージェント属性のための新しいフレームワークを提案する。
標準ツールの使用やメモリ誘起バイアスのような微妙な信頼性リスクなど、さまざまなエージェントシナリオでフレームワークを検証する。
論文 参考訳(メタデータ) (2026-01-21T15:22:21Z) - Feasible Action Space Reduction for Quantifying Causal Responsibility in Continuous Spatial Interactions [2.9998889086656586]
Feasible Action-Space Reduction (FeAR) は、個別のアクションを持つグリッドワールドにおける因果責任の指標として提案されている。
実世界の相互作用は連続的な行動空間を含むため,空間-連続的相互作用における因果責任を測定するためのFeAR計量の定式化を提案する。
論文 参考訳(メタデータ) (2025-05-23T11:02:44Z) - Causal Responsibility Attribution for Human-AI Collaboration [62.474732677086855]
本稿では,人間のAIシステムにおける責任を体系的に評価するために,構造因果モデル(SCM)を用いた因果的枠組みを提案する。
2つのケーススタディは、多様な人間とAIのコラボレーションシナリオにおけるフレームワークの適応性を示している。
論文 参考訳(メタデータ) (2024-11-05T17:17:45Z) - Learning responsibility allocations for multi-agent interactions: A differentiable optimization approach with control barrier functions [12.074590482085831]
責任レンズを介して安全なマルチエージェントインタラクションを規定する要因を定式化する。
本稿では,制御障壁関数と微分可能最適化に基づくデータ駆動モデリング手法を提案する。
論文 参考訳(メタデータ) (2024-10-09T20:20:41Z) - Causal Influence in Federated Edge Inference [34.487472866247586]
本稿では、未ラベルのストリーミングデータを用いて、接続性のある異種エージェントが推論を行う環境について考察する。
不確実性を克服するために、エージェントは、融合センターを通じてローカルな推論を交換することで互いに協力する。
エージェントの関与パターンや核融合センターの方針を反映した様々なシナリオを考察した。
論文 参考訳(メタデータ) (2024-05-02T13:06:50Z) - SocialBench: Sociality Evaluation of Role-Playing Conversational Agents [85.6641890712617]
大規模言語モデル(LLM)は、様々なAI対話エージェントの開発を進めてきた。
SocialBenchは、ロールプレイングの会話エージェントの社会的性を個人レベルとグループレベルで評価するために設計された最初のベンチマークである。
個人レベルで優れたエージェントは,集団レベルでの熟練度を示唆しない。
論文 参考訳(メタデータ) (2024-03-20T15:38:36Z) - Interactive Autonomous Navigation with Internal State Inference and
Interactivity Estimation [58.21683603243387]
本稿では,関係時間的推論を伴う3つの補助的タスクを提案し,それらを標準のディープラーニングフレームワークに統合する。
これらの補助的なタスクは、他の対話的エージェントの行動パターンを推測するための追加の監視信号を提供する。
提案手法は,標準評価指標の観点から,頑健かつ最先端のパフォーマンスを実現する。
論文 参考訳(メタデータ) (2023-11-27T18:57:42Z) - Actual Causality and Responsibility Attribution in Decentralized
Partially Observable Markov Decision Processes [22.408657774650358]
我々はこれらの概念を、不確実性の下でのマルチエージェントシーケンシャルな意思決定のための広く使われている枠組みの下で研究する。
実際の因果関係は特定の結果に焦点を当て、関心の成果を実現する上で重要な決定(行動)を識別することを目的としている。
責任帰属(Responsibility attribution)は相補的であり、意思決定者(エージェント)がこの結果にどの程度の責任を持つかを特定することを目的としている。
論文 参考訳(メタデータ) (2022-04-01T09:22:58Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。