論文の概要: Learning responsibility allocations for multi-agent interactions: A differentiable optimization approach with control barrier functions
- arxiv url: http://arxiv.org/abs/2410.07409v1
- Date: Wed, 9 Oct 2024 20:20:41 GMT
- ステータス: 処理完了
- システム内更新日: 2024-10-31 20:37:14.227285
- Title: Learning responsibility allocations for multi-agent interactions: A differentiable optimization approach with control barrier functions
- Title(参考訳): マルチエージェントインタラクションのための責任割り当ての学習:制御障壁関数を用いた微分可能な最適化手法
- Authors: Isaac Remy, David Fridovich-Keil, Karen Leung,
- Abstract要約: 責任レンズを介して安全なマルチエージェントインタラクションを規定する要因を定式化する。
本稿では,制御障壁関数と微分可能最適化に基づくデータ駆動モデリング手法を提案する。
- 参考スコア(独自算出の注目度): 12.074590482085831
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: From autonomous driving to package delivery, ensuring safe yet efficient multi-agent interaction is challenging as the interaction dynamics are influenced by hard-to-model factors such as social norms and contextual cues. Understanding these influences can aid in the design and evaluation of socially-aware autonomous agents whose behaviors are aligned with human values. In this work, we seek to codify factors governing safe multi-agent interactions via the lens of responsibility, i.e., an agent's willingness to deviate from their desired control to accommodate safe interaction with others. Specifically, we propose a data-driven modeling approach based on control barrier functions and differentiable optimization that efficiently learns agents' responsibility allocation from data. We demonstrate on synthetic and real-world datasets that we can obtain an interpretable and quantitative understanding of how much agents adjust their behavior to ensure the safety of others given their current environment.
- Abstract(参考訳): 自律運転からパッケージ配信に至るまで、対話のダイナミクスは、社会的規範や文脈的手がかりなどのハード・ツー・モデル要因に影響されるため、安全かつ効率的なマルチエージェントインタラクションを保証することは困難である。
これらの影響を理解することは、行動が人間の価値観と一致している社会的に認識された自律エージェントの設計と評価に役立つ。
本研究では,リスクレンズを介して安全なマルチエージェントインタラクションを管理する要因,すなわち,エージェントが望むコントロールから逸脱し,他者との安全なインタラクションを許容する意思を定式化する。
具体的には、データからエージェントの責任配分を効率的に学習する制御障壁関数と微分可能最適化に基づくデータ駆動モデリング手法を提案する。
人工的および実世界のデータセットを実証し、現在の環境下での安全性を確保するために、エージェントの振る舞いをどの程度調整するかを解釈可能かつ定量的に理解する。
関連論文リスト
- HAICOSYSTEM: An Ecosystem for Sandboxing Safety Risks in Human-AI Interactions [76.42274173122328]
本稿では,多様な複雑な社会的相互作用におけるAIエージェントの安全性を調べるフレームワークであるHAICOSYSTEMを提案する。
私たちは7つの領域(医療、金融、教育など)にわたる92のシナリオに基づいて1840のシミュレーションを実行します。
我々の実験は、最先端のLSMは、プロプライエタリかつオープンソースの両方で、50%以上のケースで安全リスクを示すことを示した。
論文 参考訳(メタデータ) (2024-09-24T19:47:21Z) - Enhancing Trust in Autonomous Agents: An Architecture for Accountability and Explainability through Blockchain and Large Language Models [0.3495246564946556]
この研究は、ROSベースの移動ロボットに実装された説明可能性と説明可能性のアーキテクチャを示す。
提案されたソリューションは2つの主要コンポーネントで構成されている。まず、説明責任を提供するブラックボックスのような要素で、ブロックチェーン技術によって達成されるアンチタンパ特性を特徴とする。
第二に、前述のブラックボックスに含まれるデータに対して、Large Language Models(LLM)の機能を利用することで、自然言語の説明を生成するコンポーネントである。
論文 参考訳(メタデータ) (2024-03-14T16:57:18Z) - A Factor Graph Model of Trust for a Collaborative Multi-Agent System [8.286807697708113]
信頼とは、エージェントがシステム内の他者の情報、行動、意図、真実性、能力に依存し、信頼することである。
本稿では,エージェント間の相互依存行動と信頼性を表現するために因子グラフを利用する新しいグラフィカルアプローチを提案する。
信頼度評価手法は分散化され, 近接安全性, 一貫性, 協調といった重要な相互依存サブファクタを考察する。
論文 参考訳(メタデータ) (2024-02-10T21:44:28Z) - AntEval: Evaluation of Social Interaction Competencies in LLM-Driven
Agents [65.16893197330589]
大規模言語モデル(LLM)は、幅広いシナリオで人間の振る舞いを再現する能力を示した。
しかし、複雑なマルチ文字のソーシャルインタラクションを扱う能力については、まだ完全には研究されていない。
本稿では,新しいインタラクションフレームワークと評価手法を含むマルチエージェントインタラクション評価フレームワーク(AntEval)を紹介する。
論文 参考訳(メタデータ) (2024-01-12T11:18:00Z) - DCIR: Dynamic Consistency Intrinsic Reward for Multi-Agent Reinforcement
Learning [84.22561239481901]
本稿では,エージェントの行動が他のエージェントの行動と一致しているかどうかを学習するための新しいアプローチを提案する。
マルチエージェント粒子, Google Research Football および StarCraft II Micromanagement を含む複数の環境における DCIR の評価を行った。
論文 参考訳(メタデータ) (2023-12-10T06:03:57Z) - Interactive Autonomous Navigation with Internal State Inference and
Interactivity Estimation [58.21683603243387]
本稿では,関係時間的推論を伴う3つの補助的タスクを提案し,それらを標準のディープラーニングフレームワークに統合する。
これらの補助的なタスクは、他の対話的エージェントの行動パターンを推測するための追加の監視信号を提供する。
提案手法は,標準評価指標の観点から,頑健かつ最先端のパフォーマンスを実現する。
論文 参考訳(メタデータ) (2023-11-27T18:57:42Z) - Robust Event-Driven Interactions in Cooperative Multi-Agent Learning [0.0]
本稿では,マルチエージェント学習システムにおけるエージェント間の通信を,基礎となるマルコフ決定プロセスの本質的ロバスト性を利用して削減する手法を提案する。
いわゆるロバストネス代理関数(オフライン)を計算し、エージェントがシステム内の他のエージェントを更新する前に、その状態の測定値がどれくらい逸脱するかを保守的に示す。
これにより、完全に分散された決定関数が実現され、エージェントが他を更新する必要があるかどうかを判断できるようになる。
論文 参考訳(メタデータ) (2022-04-07T11:00:39Z) - Multi-Agent Imitation Learning with Copulas [102.27052968901894]
マルチエージェント模倣学習は、観察と行動のマッピングを学習することで、デモからタスクを実行するために複数のエージェントを訓練することを目的としている。
本稿では,確率変数間の依存を捉える強力な統計ツールである copula を用いて,マルチエージェントシステムにおける相関関係と協調関係を明示的にモデル化する。
提案モデルでは,各エージェントの局所的行動パターンと,エージェント間の依存構造のみをフルにキャプチャするコプラ関数を別々に学習することができる。
論文 参考訳(メタデータ) (2021-07-10T03:49:41Z) - Learning Latent Representations to Influence Multi-Agent Interaction [65.44092264843538]
エージェントのポリシーの潜在表現を学習するための強化学習に基づくフレームワークを提案する。
提案手法は代替手段よりも優れており,他のエージェントに影響を与えることを学習している。
論文 参考訳(メタデータ) (2020-11-12T19:04:26Z) - MIDAS: Multi-agent Interaction-aware Decision-making with Adaptive
Strategies for Urban Autonomous Navigation [22.594295184455]
そこで本研究では,エゴエージェントが他車の制御動作に影響を与えることを学習する,MIDASと呼ばれる強化学習手法を構築した。
MIDAS は広範にわたる実験により検証され,(i) 異なる道路測地をまたいで動作可能であること,(ii) 外部エージェントの駆動方針の変化に対して堅牢であること,(iv) インタラクション対応意思決定に対する既存のアプローチよりも効率的で安全であること,などが示されている。
論文 参考訳(メタデータ) (2020-08-17T04:34:25Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。