論文の概要: Decision-Making Among Bounded Rational Agents
- arxiv url: http://arxiv.org/abs/2210.08672v1
- Date: Mon, 17 Oct 2022 00:29:24 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-18 21:26:15.803249
- Title: Decision-Making Among Bounded Rational Agents
- Title(参考訳): 有界合理的エージェントの意思決定
- Authors: Junhong Xu, Durgakant Pushp, Kai Yin, Lantao Liu
- Abstract要約: 本稿では,情報理論の観点からの有界合理性の概念をゲーム理論の枠組みに導入する。
これにより、ロボットは他のエージェントの準最適動作を推論し、計算上の制約の下で行動することができる。
その結果,ロボットが他のエージェントの理性行動の異なるレベルを推論し,その計算制約の下で合理的な戦略を計算できることが実証された。
- 参考スコア(独自算出の注目度): 5.24482648010213
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: When robots share the same workspace with other intelligent agents (e.g.,
other robots or humans), they must be able to reason about the behaviors of
their neighboring agents while accomplishing the designated tasks. In practice,
frequently, agents do not exhibit absolutely rational behavior due to their
limited computational resources. Thus, predicting the optimal agent behaviors
is undesirable (because it demands prohibitive computational resources) and
undesirable (because the prediction may be wrong). Motivated by this
observation, we remove the assumption of perfectly rational agents and propose
incorporating the concept of bounded rationality from an information-theoretic
view into the game-theoretic framework. This allows the robots to reason other
agents' sub-optimal behaviors and act accordingly under their computational
constraints. Specifically, bounded rationality directly models the agent's
information processing ability, which is represented as the KL-divergence
between nominal and optimized stochastic policies, and the solution to the
bounded-optimal policy can be obtained by an efficient importance sampling
approach. Using both simulated and real-world experiments in multi-robot
navigation tasks, we demonstrate that the resulting framework allows the robots
to reason about different levels of rational behaviors of other agents and
compute a reasonable strategy under its computational constraint.
- Abstract(参考訳): ロボットが他の知的エージェント(例えば、他のロボットや人間)と同じ作業空間を共有する場合、指定されたタスクを遂行しながら、隣のエージェントの振る舞いを推論できなければならない。
実際、しばしば、エージェントは計算資源が限られているため、完全に合理的な振る舞いを示さない。
したがって、最適なエージェントの振る舞いを予測するのは望ましくない(計算資源の禁止を要求するため)し、望ましくない(予測が間違っているためかもしれない)。
この観察により,完全有理性エージェントの仮定を排除し,情報理論の観点から有理性の概念をゲーム理論の枠組みに取り入れることを提案する。
これにより、ロボットは他のエージェントの準最適動作を推論し、計算制約の下で行動することができる。
具体的には、有界有理性は、名目と最適化確率ポリシーのKL分割として表されるエージェントの情報処理能力を直接モデル化し、有界最適ポリシーへの解決策は効率的な重要サンプリングアプローチによって得ることができる。
マルチロボットナビゲーションタスクにおけるシミュレーションと実世界の両方の実験を用いて、ロボットが他のエージェントの理性的な振る舞いの異なるレベルを推論し、その計算制約の下で合理的な戦略を計算できることを実証した。
関連論文リスト
- Predicting AI Agent Behavior through Approximation of the Perron-Frobenius Operator [4.076790923976287]
我々は,AIエージェントを非線形力学系として扱い,確率論的観点からその統計的挙動を予測する。
エントロピー最小化問題としてペロン・フロベニウス作用素(PF)の近似を定式化する。
我々のデータ駆動手法は、エージェントの進化を予測するためにPF演算子を同時に近似し、AIエージェントの終端確率密度を予測する。
論文 参考訳(メタデータ) (2024-06-04T19:06:49Z) - Learning and Calibrating Heterogeneous Bounded Rational Market Behaviour
with Multi-Agent Reinforcement Learning [4.40301653518681]
エージェントベースモデル(ABM)は、従来の平衡解析と相容れない様々な実世界の現象をモデル化することを約束している。
マルチエージェント強化学習(MARL)の最近の進歩は、合理性の観点からこの問題に対処する方法を提供する。
MARLフレームワーク内で不均一な処理制約を持つエージェントを表現するための新しい手法を提案する。
論文 参考訳(メタデータ) (2024-02-01T17:21:45Z) - Reinforcement Learning Interventions on Boundedly Rational Human Agents
in Frictionful Tasks [25.507656595628376]
本稿では,AIエージェントがマルコフ決定プロセス(MDP)のパラメータに介入する枠組みを紹介する。
私たちは、人間のモデルによるAI計画が、より複雑で地道な人間の幅広い政策に結びつくことを示しています。
論文 参考訳(メタデータ) (2024-01-26T14:59:48Z) - Modeling Boundedly Rational Agents with Latent Inference Budgets [56.24971011281947]
エージェントの計算制約を明示的にモデル化する潜在推論予算モデル(L-IBM)を導入する。
L-IBMは、最適なアクターの多様な集団のデータを使ってエージェントモデルを学ぶことができる。
我々は,L-IBMが不確実性の下での意思決定のボルツマンモデルに適合しているか,あるいは上回っていることを示す。
論文 参考訳(メタデータ) (2023-12-07T03:55:51Z) - Interactive Autonomous Navigation with Internal State Inference and
Interactivity Estimation [58.21683603243387]
本稿では,関係時間的推論を伴う3つの補助的タスクを提案し,それらを標準のディープラーニングフレームワークに統合する。
これらの補助的なタスクは、他の対話的エージェントの行動パターンを推測するための追加の監視信号を提供する。
提案手法は,標準評価指標の観点から,頑健かつ最先端のパフォーマンスを実現する。
論文 参考訳(メタデータ) (2023-11-27T18:57:42Z) - Pessimism meets VCG: Learning Dynamic Mechanism Design via Offline
Reinforcement Learning [114.36124979578896]
オフライン強化学習アルゴリズムを用いて動的メカニズムを設計する。
我々のアルゴリズムは悲観主義の原理に基づいており、オフラインデータセットのカバレッジについて軽度な仮定しか必要としない。
論文 参考訳(メタデータ) (2022-05-05T05:44:26Z) - Modeling Bounded Rationality in Multi-Agent Simulations Using Rationally
Inattentive Reinforcement Learning [85.86440477005523]
我々は、人間不合理性の確立されたモデルであるRational Inattention(RI)モデルを含む、より人間的なRLエージェントについて検討する。
RIRLは、相互情報を用いた認知情報処理のコストをモデル化する。
我々は、RIRLを用いることで、合理的な仮定の下で発見されたものと異なる、新しい平衡挙動の豊富なスペクトルが得られることを示す。
論文 参考訳(メタデータ) (2022-01-18T20:54:00Z) - Automated Machine Learning, Bounded Rationality, and Rational
Metareasoning [62.997667081978825]
有界合理性の観点から、自動機械学習(AutoML)と関連する問題を考察する。
リソース境界の下でアクションを取るには、エージェントがこれらのリソースを最適な方法で利用する方法を反映する必要がある。
論文 参考訳(メタデータ) (2021-09-10T09:10:20Z) - ERMAS: Becoming Robust to Reward Function Sim-to-Real Gaps in
Multi-Agent Simulations [110.72725220033983]
Epsilon-Robust Multi-Agent Simulation (ERMAS)は、このようなマルチエージェントのsim-to-realギャップに対して堅牢なAIポリシーを学ぶためのフレームワークである。
ERMASは、エージェントリスク回避の変化に対して堅牢な税政策を学び、複雑な時間シミュレーションで最大15%社会福祉を改善する。
特に、ERMASは、エージェントリスク回避の変化に対して堅牢な税制政策を学び、複雑な時間シミュレーションにおいて、社会福祉を最大15%改善する。
論文 参考訳(メタデータ) (2021-06-10T04:32:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。