論文の概要: On Optimizing Interventions in Shared Autonomy
- arxiv url: http://arxiv.org/abs/2112.09169v1
- Date: Thu, 16 Dec 2021 19:37:28 GMT
- ステータス: 処理完了
- システム内更新日: 2021-12-21 05:25:27.040014
- Title: On Optimizing Interventions in Shared Autonomy
- Title(参考訳): 共有自律における干渉の最適化について
- Authors: Weihao Tan, David Koleczek, Siddhant Pradhan, Nicholas Perello, Vivek
Chettiar, Vishal Rohra, Aaslesha Rajaram, Soundararajan Srinivasan, H M
Sajjad Hossain, Yash Chandak
- Abstract要約: 本稿では,自律エージェントによる介入回数を制限し,ユーザエクスペリエンスを向上させるためのアプローチについて議論する。
介入回数の厳密な制約とソフトな制約を考慮に入れたモデルフリー強化学習法を2つ提案する。
- 参考スコア(独自算出の注目度): 5.385379526525158
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Shared autonomy refers to approaches for enabling an autonomous agent to
collaborate with a human with the aim of improving human performance. However,
besides improving performance, it may often also be beneficial that the agent
concurrently accounts for preserving the user's experience or satisfaction of
collaboration. In order to address this additional goal, we examine approaches
for improving the user experience by constraining the number of interventions
by the autonomous agent. We propose two model-free reinforcement learning
methods that can account for both hard and soft constraints on the number of
interventions. We show that not only does our method outperform the existing
baseline, but also eliminates the need to manually tune a black-box
hyperparameter for controlling the level of assistance. We also provide an
in-depth analysis of intervention scenarios in order to further illuminate
system understanding.
- Abstract(参考訳): 共有自律性(shared autonomy)とは、自律エージェントが人間と協力し、人間のパフォーマンスを改善するためのアプローチである。
しかし、パフォーマンスの向上に加えて、エージェントが同時にユーザの経験やコラボレーションの満足度を保っていることもしばしば有益である。
この追加目標に対処するために,自律エージェントによる介入回数を制限し,ユーザエクスペリエンスを改善するためのアプローチを検討する。
介入回数の厳密な制約とソフトな制約を考慮に入れたモデルフリー強化学習法を2つ提案する。
提案手法は,既存のベースラインよりも優れるだけでなく,補助レベルを制御するためにブラックボックスハイパーパラメータを手動でチューニングする必要がなくなることを示す。
また,システムの理解を深めるために,介入シナリオの詳細な分析を行う。
関連論文リスト
- From Novice to Expert: LLM Agent Policy Optimization via Step-wise Reinforcement Learning [62.54484062185869]
本稿では,エージェントの強化学習プロセスの最適化にステップワイド報酬を利用するStepAgentを紹介する。
エージェント反射とポリシー調整を容易にする暗黙の逆・逆の強化学習手法を提案する。
論文 参考訳(メタデータ) (2024-11-06T10:35:11Z) - RLIF: Interactive Imitation Learning as Reinforcement Learning [56.997263135104504]
我々は,対話型模倣学習と類似するが,さらに実践的な仮定の下で,非政治強化学習によってパフォーマンスが向上できることを実証する。
提案手法は,ユーザ介入信号を用いた強化学習を報奨として利用する。
このことは、インタラクティブな模倣学習において介入する専門家がほぼ最適であるべきだという仮定を緩和し、アルゴリズムが潜在的に最適でない人間の専門家よりも改善される行動を学ぶことを可能にする。
論文 参考訳(メタデータ) (2023-11-21T21:05:21Z) - Augmenting Unsupervised Reinforcement Learning with Self-Reference [63.68018737038331]
人間は、新しいタスクを学ぶ際に、過去の経験を明確に表現する能力を持っている。
本稿では,歴史情報を活用するためのアドオンモジュールとして,自己参照(SR)アプローチを提案する。
提案手法は,非教師付き強化学習ベンチマークにおけるIQM(Interquartile Mean)性能と最適ギャップ削減の両面から,最先端の成果を実現する。
論文 参考訳(メタデータ) (2023-11-16T09:07:34Z) - Auxiliary Learning as an Asymmetric Bargaining Game [50.826710465264505]
補助学習におけるタスクのバランスをとるために,AuxiNashという新しい手法を提案する。
本報告では,主課題の性能に対する貢献に基づいて,タスクの獲得能力を学ぶための効率的な手順について述べる。
複数のマルチタスクベンチマークでAuxiNashを評価し、競合する手法よりも一貫して優れていることを示す。
論文 参考訳(メタデータ) (2023-01-31T09:41:39Z) - Collaborative Decision Making Using Action Suggestions [41.013477422930755]
本稿では,行動選択を改善する行動提案を通じて協調的意思決定の手法を定式化する。
提案手法では,提案によって共有される暗黙の情報を組み込んで,エージェントの信念を変更する。
協調環境の仮定により,エージェントのポリシーを用いて行動提案よりも分布を推定することができる。
論文 参考訳(メタデータ) (2022-09-27T05:16:41Z) - Targeted Data Acquisition for Evolving Negotiation Agents [6.953246373478702]
成功した交渉者は、自己利益と協力のために最適化のバランスをとる方法を学ばなければならない。
現在の人工交渉エージェントは、トレーニングされた静的データセットの品質に大きく依存することが多い。
我々は、強化学習エージェントの探索をガイドするターゲットデータ取得フレームワークを導入する。
論文 参考訳(メタデータ) (2021-06-14T19:45:59Z) - Efficient Empowerment Estimation for Unsupervised Stabilization [75.32013242448151]
エンパワーメント原理は 直立位置での 力学系の教師なし安定化を可能にする
本稿では,ガウスチャネルとして動的システムのトレーニング可能な表現に基づく代替解を提案する。
提案手法は, サンプルの複雑さが低く, 訓練時より安定であり, エンパワーメント機能の本質的特性を有し, 画像からエンパワーメントを推定できることを示す。
論文 参考訳(メタデータ) (2020-07-14T21:10:16Z) - AvE: Assistance via Empowerment [77.08882807208461]
そこで我々は,人間の環境制御能力を高めることで,支援のための新しいパラダイムを提案する。
このタスクに依存しない目的は、個人の自律性と最終的な状態を達成する能力を維持する。
論文 参考訳(メタデータ) (2020-06-26T04:40:11Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。