論文の概要: Be Considerate: Objectives, Side Effects, and Deciding How to Act
- arxiv url: http://arxiv.org/abs/2106.02617v1
- Date: Fri, 4 Jun 2021 17:32:15 GMT
- ステータス: 処理完了
- システム内更新日: 2021-06-07 15:21:32.698958
- Title: Be Considerate: Objectives, Side Effects, and Deciding How to Act
- Title(参考訳): 考慮すべき:目的、副作用、行動の仕方を決定する
- Authors: Parand Alizadeh Alamdari, Toryn Q. Klassen, Rodrigo Toro Icarte,
Sheila A. McIlraith
- Abstract要約: AIの安全性に関する最近の研究は、シーケンシャルな意思決定において、目的はしばしば不特定または不完全であることが強調されている。
我々は、安全行動を学ぶために、強化学習(RL)エージェントは、その行動が環境における他者の幸福やエージェンシーに与える影響を考察するべきであると論じる。
- 参考スコア(独自算出の注目度): 18.79430401279035
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Recent work in AI safety has highlighted that in sequential decision making,
objectives are often underspecified or incomplete. This gives discretion to the
acting agent to realize the stated objective in ways that may result in
undesirable outcomes. We contend that to learn to act safely, a reinforcement
learning (RL) agent should include contemplation of the impact of its actions
on the wellbeing and agency of others in the environment, including other
acting agents and reactive processes. We endow RL agents with the ability to
contemplate such impact by augmenting their reward based on expectation of
future return by others in the environment, providing different criteria for
characterizing impact. We further endow these agents with the ability to
differentially factor this impact into their decision making, manifesting
behavior that ranges from self-centred to self-less, as demonstrated by
experiments in gridworld environments.
- Abstract(参考訳): AIの安全性に関する最近の研究は、シーケンシャルな意思決定において、目的はしばしば不特定または不完全であることが強調されている。
これは、望ましくない結果をもたらす可能性のある方法で、指示された目的を実現するために、代理エージェントに裁量を与える。
我々は、安全行動を学ぶために、強化学習(RL)エージェントは、他のエージェントや反応性プロセスを含む環境におけるその行動が他人の幸福や代理に与える影響の考察を含むべきであると主張する。
我々は,RLエージェントに,環境における将来的なリターン期待に基づいて報酬を増大させ,影響を特徴づけるための異なる基準を提供することにより,そのような影響を熟考する能力を与える。
さらに我々は、これらのエージェントに、この影響を意思決定に差分分解する能力を与え、グリッドワールド環境の実験で示されたように、自己中心から自己中心まで幅広い行動を示す。
関連論文リスト
- External Model Motivated Agents: Reinforcement Learning for Enhanced Environment Sampling [3.536024441537599]
強化学習(RL)エージェントとは異なり、人間は環境の変化において有能なマルチタスクのままである。
環境変化における外部モデルの適応効率を向上させるために,RLエージェントのエージェント影響フレームワークを提案する。
提案手法は,効率と性能の両面を測る指標に対する外部モデル適応の観点から,ベースラインよりも優れていることを示す。
論文 参考訳(メタデータ) (2024-06-28T23:31:22Z) - DCIR: Dynamic Consistency Intrinsic Reward for Multi-Agent Reinforcement
Learning [84.22561239481901]
本稿では,エージェントの行動が他のエージェントの行動と一致しているかどうかを学習するための新しいアプローチを提案する。
マルチエージェント粒子, Google Research Football および StarCraft II Micromanagement を含む複数の環境における DCIR の評価を行った。
論文 参考訳(メタデータ) (2023-12-10T06:03:57Z) - Kindness in Multi-Agent Reinforcement Learning [0.0]
人間社会では、人々は自分の決定に公平さを取り入れ、親切に行動する人々に親切にすることで相互に扱います。
この行動概念は、MARL(Multi-Agent Reinforcement Learning)における協調エージェントの訓練に適応することができる。
そこで我々は,エージェントの意図を,エージェントが利用できる行動の環境影響に関する反実的推論によって測定するKindMARL法を提案する。
論文 参考訳(メタデータ) (2023-11-06T19:53:26Z) - Agent-Specific Effects: A Causal Effect Propagation Analysis in Multi-Agent MDPs [13.524274041966539]
エージェント特異的効果(ASE)は、エージェントの作用が他のエージェントを介して伝播する結果に与える影響を測定する新しい因果量である。
我々は,敗血症管理環境を含むシミュレーションベースのテストベッドを用いて,cf-ASEの有用性を実験的に評価した。
論文 参考訳(メタデータ) (2023-10-17T15:12:56Z) - Inverse Online Learning: Understanding Non-Stationary and Reactionary
Policies [79.60322329952453]
エージェントが意思決定を行う方法の解釈可能な表現を開発する方法を示す。
一連の軌跡に基づく意思決定プロセスを理解することにより,このオンライン学習問題に対して,政策推論問題を逆問題とみなした。
本稿では、エージェントがそれらを更新するプロセスと並行して、その影響を遡及的に推定する実用的なアルゴリズムを提案する。
UNOSの臓器提供受諾決定の分析に応用することで、我々のアプローチは意思決定プロセスを管理する要因や時間とともにどのように変化するかに、貴重な洞察をもたらすことができることを実証する。
論文 参考訳(メタデータ) (2022-03-14T17:40:42Z) - Influencing Long-Term Behavior in Multiagent Reinforcement Learning [59.98329270954098]
時間的アプローチが無限に近づくと、他のエージェントの制限ポリシーを考えるための原則的枠組みを提案する。
具体的には、各エージェントの行動が他のエージェントが行うポリシーの制限セットに与える影響を直接考慮し、各エージェントの平均報酬を最大化する新しい最適化目標を開発する。
我々の遠視評価により、様々な領域における最先端のベースラインよりも長期的性能が向上した。
論文 参考訳(メタデータ) (2022-03-07T17:32:35Z) - Information is Power: Intrinsic Control via Information Capture [110.3143711650806]
我々は,潜時状態空間モデルを用いて推定したエージェントの状態訪問のエントロピーを最小化する,コンパクトで汎用的な学習目的を論じる。
この目的は、不確実性の低減に対応する環境情報収集と、将来の世界状態の予測不可能性の低減に対応する環境制御の両方をエージェントに誘導する。
論文 参考訳(メタデータ) (2021-12-07T18:50:42Z) - Mitigating Negative Side Effects via Environment Shaping [27.400267388362654]
非構造環境で作動するエージェントは、しばしば負の副作用(NSE)を引き起こす
本稿では,この問題を解き,理論特性を解析するアルゴリズムを提案する。
提案手法は,エージェントが割り当てられたタスクを完了させる能力に影響を与えずに,nseを効果的に緩和できることを示す。
論文 参考訳(メタデータ) (2021-02-13T22:15:00Z) - Learning "What-if" Explanations for Sequential Decision-Making [92.8311073739295]
実世界の意思決定の解釈可能なパラメータ化を実証行動に基づいて構築することが不可欠である。
そこで我々は,「何」の結果に対する嗜好の観点から,報酬関数をモデル化し,専門家による意思決定の学習的説明を提案する。
本研究は,行動の正確かつ解釈可能な記述を回復する上で,実効的逆強化学習手法であるバッチの有効性を強調した。
論文 参考訳(メタデータ) (2020-07-02T14:24:17Z) - Learning to Incentivize Other Learning Agents [73.03133692589532]
我々は、学習インセンティブ関数を用いて、RLエージェントに他のエージェントに直接報酬を与える能力を持たせる方法を示す。
このようなエージェントは、一般的なマルコフゲームにおいて、標準のRLと対戦型エージェントを著しく上回っている。
私たちの仕事は、マルチエージェントの未来において共通の善を確実にする道のりに沿って、より多くの機会と課題を指しています。
論文 参考訳(メタデータ) (2020-06-10T20:12:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。