論文の概要: Survey on Fair Reinforcement Learning: Theory and Practice
- arxiv url: http://arxiv.org/abs/2205.10032v1
- Date: Fri, 20 May 2022 09:07:28 GMT
- ステータス: 処理完了
- システム内更新日: 2022-05-24 02:42:12.355267
- Title: Survey on Fair Reinforcement Learning: Theory and Practice
- Title(参考訳): 公正強化学習に関する調査:理論と実践
- Authors: Pratik Gajane, Akrati Saxena, Maryam Tavakol, George Fletcher, and
Mykola Pechenizkiy
- Abstract要約: 本稿では、強化学習(RL)フレームワークを用いて実装されたフェアネスアプローチについて概観する。
本稿では,RL法を適用した様々な実用的応用について論じる。
フェアRLの分野を前進させるために検討すべき主要な課題をいくつか取り上げる。
- 参考スコア(独自算出の注目度): 9.783469272270896
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Fairness-aware learning aims at satisfying various fairness constraints in
addition to the usual performance criteria via data-driven machine learning
techniques. Most of the research in fairness-aware learning employs the setting
of fair-supervised learning. However, many dynamic real-world applications can
be better modeled using sequential decision-making problems and fair
reinforcement learning provides a more suitable alternative for addressing
these problems. In this article, we provide an extensive overview of fairness
approaches that have been implemented via a reinforcement learning (RL)
framework. We discuss various practical applications in which RL methods have
been applied to achieve a fair solution with high accuracy. We further include
various facets of the theory of fair reinforcement learning, organizing them
into single-agent RL, multi-agent RL, long-term fairness via RL, and offline
learning. Moreover, we highlight a few major issues to explore in order to
advance the field of fair-RL, namely - i) correcting societal biases, ii)
feasibility of group fairness or individual fairness, and iii) explainability
in RL. Our work is beneficial for both researchers and practitioners as we
discuss articles providing mathematical guarantees as well as articles with
empirical studies on real-world problems.
- Abstract(参考訳): fairness-aware learningは、データ駆動機械学習技術による通常のパフォーマンス基準に加えて、さまざまなフェアネス制約を満たすことを目的としている。
公正を意識した学習の研究のほとんどは、公正な教師付き学習の設定を採用する。
しかし、多くの動的実世界のアプリケーションはシーケンシャルな意思決定問題を用いてよりうまくモデル化することができ、公平な強化学習はこれらの問題に対処するのにより適した代替手段を提供する。
本稿では,強化学習(rl)フレームワークを通じて実装された公平性アプローチの概要について述べる。
本稿では,高い精度で公平な解を求めるために,rl法を適用した様々な実用的応用について考察する。
さらに、公正強化学習理論の様々な側面、それらを単一エージェントRL、複数エージェントRL、RLによる長期公正、オフライン学習に編成する。
さらに,fair-rlの分野を進めるために検討すべき重要な課題をいくつか紹介する。
一 社会的偏見の是正
二 集団公正又は個別公正の実現可能性、及び
三 RLの説明可能性
本研究は,実世界問題に関する実証的研究とともに数学的保証を提供する論文を議論する中で,研究者と実践者双方にとって有益である。
関連論文リスト
- Towards Sample-Efficiency and Generalization of Transfer and Inverse Reinforcement Learning: A Comprehensive Literature Review [50.67937325077047]
本稿では,転送および逆強化学習(T-IRL)によるRLアルゴリズムのサンプル効率と一般化を実現するための総合的なレビューを行う。
以上の結果から,最近の研究成果の大部分は,人間のループとシム・トゥ・リアル戦略を活用することで,上記の課題に対処していることが示唆された。
IRL構造の下では、経験の少ない移行と、そのようなフレームワークのマルチエージェントおよびマルチインテンション問題への拡張を必要とするトレーニングスキームが近年研究者の優先事項となっている。
論文 参考訳(メタデータ) (2024-11-15T15:18:57Z) - Multi-Agent Reinforcement Learning from Human Feedback: Data Coverage and Algorithmic Techniques [65.55451717632317]
我々は,MARLHF(Multi-Agent Reinforcement Learning from Human Feedback)について検討し,理論的基礎と実証的検証の両方について検討した。
我々は,このタスクを,一般ゲームにおける嗜好のみのオフラインデータセットからナッシュ均衡を識別するものとして定義する。
本研究は,MARLHFの多面的アプローチを基礎として,効果的な嗜好に基づくマルチエージェントシステムの実現を目指している。
論文 参考訳(メタデータ) (2024-09-01T13:14:41Z) - Fairness in Reinforcement Learning: A Survey [0.0]
我々は,強化学習におけるフェアネスのフロンティアの最も最新のスナップショットを提供するために,文献を調査した。
我々は,単一エージェントとマルチエージェントRLシステムにおいて,公正性を実装するために研究者が用いた手法を強調した。
RLHFの文脈における公平さの理解など,文献のギャップを批判的に検討する。
論文 参考訳(メタデータ) (2024-05-11T04:36:46Z) - Sample Efficient Myopic Exploration Through Multitask Reinforcement
Learning with Diverse Tasks [53.44714413181162]
本稿では, エージェントが十分に多様なタスクセットで訓練された場合, 筋電図探索設計による一般的なポリシー共有アルゴリズムは, サンプル効率がよいことを示す。
我々の知る限りでは、これはMTRLの「探索的利益」の初めての理論的実証である。
論文 参考訳(メタデータ) (2024-03-03T22:57:44Z) - Fair Off-Policy Learning from Observational Data [30.77874108094485]
我々は、公正な政治学学習のための新しい枠組みを提案する。
まず、政治以外の学習における公平性の概念を定式化する。
次に、異なる公正概念の下で最適なポリシーを学習するためのニューラルネットワークベースのフレームワークを提案する。
論文 参考訳(メタデータ) (2023-03-15T10:47:48Z) - Reinforcement Learning with Stepwise Fairness Constraints [50.538878453547966]
本稿では,段階的公正性制約を伴う強化学習について紹介する。
我々は、ポリシーの最適性と公正性違反に関して、強力な理論的保証を持つ学習アルゴリズムを提供する。
論文 参考訳(メタデータ) (2022-11-08T04:06:23Z) - Reinforcement Learning Applied to Trading Systems: A Survey [5.118560450410779]
近年の成果と強化学習の有名さは、取引業務における採用率を高めている。
このレビューは、研究者の標準遵守へのコミットメントによって、この研究分野の発展を促進する試みである。
論文 参考訳(メタデータ) (2022-11-01T21:26:12Z) - Contrastive UCB: Provably Efficient Contrastive Self-Supervised Learning in Online Reinforcement Learning [92.18524491615548]
対照的な自己指導型学習は、(深層)強化学習(RL)の実践にうまく統合されている
我々は,低ランク遷移を伴うマルコフ決定過程(MDP)とマルコフゲーム(MG)のクラスにおいて,コントラスト学習によってRLをどのように強化できるかを検討する。
オンライン環境下では,MDPやMGのオンラインRLアルゴリズムと対照的な損失を生かした,新しい高信頼境界(UCB)型アルゴリズムを提案する。
論文 参考訳(メタデータ) (2022-07-29T17:29:08Z) - A Probabilistic Interpretation of Self-Paced Learning with Applications
to Reinforcement Learning [30.69129405392038]
強化学習における自動カリキュラム生成のアプローチを提案する。
我々は、よく知られた自己評価学習パラダイムを、トレーニングタスクよりも分布を誘導するものとして定式化する。
実験により、この誘導分布のトレーニングは、RLアルゴリズム間の局所最適性の低下を避けるのに役立つことが示された。
論文 参考訳(メタデータ) (2021-02-25T21:06:56Z) - Towards Continual Reinforcement Learning: A Review and Perspectives [69.48324517535549]
我々は,連続的強化学習(RL)に対する異なる定式化とアプローチの文献レビューの提供を目的とする。
まだ初期段階だが、継続的なrlの研究は、よりインクリメンタルな強化学習者を開発することを約束している。
これには、医療、教育、物流、ロボット工学などの分野の応用が含まれる。
論文 参考訳(メタデータ) (2020-12-25T02:35:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。