論文の概要: Survey on Fair Reinforcement Learning: Theory and Practice
- arxiv url: http://arxiv.org/abs/2205.10032v1
- Date: Fri, 20 May 2022 09:07:28 GMT
- ステータス: 処理完了
- システム内更新日: 2022-05-24 02:42:12.355267
- Title: Survey on Fair Reinforcement Learning: Theory and Practice
- Title(参考訳): 公正強化学習に関する調査:理論と実践
- Authors: Pratik Gajane, Akrati Saxena, Maryam Tavakol, George Fletcher, and
Mykola Pechenizkiy
- Abstract要約: 本稿では、強化学習(RL)フレームワークを用いて実装されたフェアネスアプローチについて概観する。
本稿では,RL法を適用した様々な実用的応用について論じる。
フェアRLの分野を前進させるために検討すべき主要な課題をいくつか取り上げる。
- 参考スコア(独自算出の注目度): 9.783469272270896
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Fairness-aware learning aims at satisfying various fairness constraints in
addition to the usual performance criteria via data-driven machine learning
techniques. Most of the research in fairness-aware learning employs the setting
of fair-supervised learning. However, many dynamic real-world applications can
be better modeled using sequential decision-making problems and fair
reinforcement learning provides a more suitable alternative for addressing
these problems. In this article, we provide an extensive overview of fairness
approaches that have been implemented via a reinforcement learning (RL)
framework. We discuss various practical applications in which RL methods have
been applied to achieve a fair solution with high accuracy. We further include
various facets of the theory of fair reinforcement learning, organizing them
into single-agent RL, multi-agent RL, long-term fairness via RL, and offline
learning. Moreover, we highlight a few major issues to explore in order to
advance the field of fair-RL, namely - i) correcting societal biases, ii)
feasibility of group fairness or individual fairness, and iii) explainability
in RL. Our work is beneficial for both researchers and practitioners as we
discuss articles providing mathematical guarantees as well as articles with
empirical studies on real-world problems.
- Abstract(参考訳): fairness-aware learningは、データ駆動機械学習技術による通常のパフォーマンス基準に加えて、さまざまなフェアネス制約を満たすことを目的としている。
公正を意識した学習の研究のほとんどは、公正な教師付き学習の設定を採用する。
しかし、多くの動的実世界のアプリケーションはシーケンシャルな意思決定問題を用いてよりうまくモデル化することができ、公平な強化学習はこれらの問題に対処するのにより適した代替手段を提供する。
本稿では,強化学習(rl)フレームワークを通じて実装された公平性アプローチの概要について述べる。
本稿では,高い精度で公平な解を求めるために,rl法を適用した様々な実用的応用について考察する。
さらに、公正強化学習理論の様々な側面、それらを単一エージェントRL、複数エージェントRL、RLによる長期公正、オフライン学習に編成する。
さらに,fair-rlの分野を進めるために検討すべき重要な課題をいくつか紹介する。
一 社会的偏見の是正
二 集団公正又は個別公正の実現可能性、及び
三 RLの説明可能性
本研究は,実世界問題に関する実証的研究とともに数学的保証を提供する論文を議論する中で,研究者と実践者双方にとって有益である。
関連論文リスト
- A Comprehensive Survey of Reinforcement Learning: From Algorithms to Practical Challenges [2.2448567386846916]
強化学習(RL)は人工知能(AI)の強力なパラダイムとして登場した。
本稿では,多種多様なアルゴリズムを巧みに分析するRLの包括的調査を行う。
我々は、RLアルゴリズムの選択と実装に関する実践的な洞察を提供し、収束、安定性、探索-探索ジレンマといった共通の課題に対処する。
論文 参考訳(メタデータ) (2024-11-28T03:53:14Z) - Towards Sample-Efficiency and Generalization of Transfer and Inverse Reinforcement Learning: A Comprehensive Literature Review [50.67937325077047]
本稿では,転送および逆強化学習(T-IRL)によるRLアルゴリズムのサンプル効率と一般化を実現するための総合的なレビューを行う。
以上の結果から,最近の研究成果の大部分は,人間のループとシム・トゥ・リアル戦略を活用することで,上記の課題に対処していることが示唆された。
IRL構造の下では、経験の少ない移行と、そのようなフレームワークのマルチエージェントおよびマルチインテンション問題への拡張を必要とするトレーニングスキームが近年研究者の優先事項となっている。
論文 参考訳(メタデータ) (2024-11-15T15:18:57Z) - Fairness in Reinforcement Learning: A Survey [0.0]
我々は,強化学習におけるフェアネスのフロンティアの最も最新のスナップショットを提供するために,文献を調査した。
我々は,単一エージェントとマルチエージェントRLシステムにおいて,公正性を実装するために研究者が用いた手法を強調した。
RLHFの文脈における公平さの理解など,文献のギャップを批判的に検討する。
論文 参考訳(メタデータ) (2024-05-11T04:36:46Z) - Sample Efficient Myopic Exploration Through Multitask Reinforcement
Learning with Diverse Tasks [53.44714413181162]
本稿では, エージェントが十分に多様なタスクセットで訓練された場合, 筋電図探索設計による一般的なポリシー共有アルゴリズムは, サンプル効率がよいことを示す。
我々の知る限りでは、これはMTRLの「探索的利益」の初めての理論的実証である。
論文 参考訳(メタデータ) (2024-03-03T22:57:44Z) - Reinforcement Learning with Stepwise Fairness Constraints [50.538878453547966]
本稿では,段階的公正性制約を伴う強化学習について紹介する。
我々は、ポリシーの最適性と公正性違反に関して、強力な理論的保証を持つ学習アルゴリズムを提供する。
論文 参考訳(メタデータ) (2022-11-08T04:06:23Z) - Reinforcement Learning Applied to Trading Systems: A Survey [5.118560450410779]
近年の成果と強化学習の有名さは、取引業務における採用率を高めている。
このレビューは、研究者の標準遵守へのコミットメントによって、この研究分野の発展を促進する試みである。
論文 参考訳(メタデータ) (2022-11-01T21:26:12Z) - Contrastive UCB: Provably Efficient Contrastive Self-Supervised Learning in Online Reinforcement Learning [92.18524491615548]
対照的な自己指導型学習は、(深層)強化学習(RL)の実践にうまく統合されている
我々は,低ランク遷移を伴うマルコフ決定過程(MDP)とマルコフゲーム(MG)のクラスにおいて,コントラスト学習によってRLをどのように強化できるかを検討する。
オンライン環境下では,MDPやMGのオンラインRLアルゴリズムと対照的な損失を生かした,新しい高信頼境界(UCB)型アルゴリズムを提案する。
論文 参考訳(メタデータ) (2022-07-29T17:29:08Z) - Autonomous Reinforcement Learning: Formalism and Benchmarking [106.25788536376007]
人間や動物が行うような現実世界の具体的学習は、連続的で非エポゾディックな世界にある。
RLの一般的なベンチマークタスクはエピソジックであり、試行錯誤によってエージェントに複数の試行を行う環境がリセットされる。
この相違は、擬似環境向けに開発されたRLアルゴリズムを現実世界のプラットフォーム上で実行しようとする場合、大きな課題となる。
論文 参考訳(メタデータ) (2021-12-17T16:28:06Z) - A Probabilistic Interpretation of Self-Paced Learning with Applications
to Reinforcement Learning [30.69129405392038]
強化学習における自動カリキュラム生成のアプローチを提案する。
我々は、よく知られた自己評価学習パラダイムを、トレーニングタスクよりも分布を誘導するものとして定式化する。
実験により、この誘導分布のトレーニングは、RLアルゴリズム間の局所最適性の低下を避けるのに役立つことが示された。
論文 参考訳(メタデータ) (2021-02-25T21:06:56Z) - Towards Continual Reinforcement Learning: A Review and Perspectives [69.48324517535549]
我々は,連続的強化学習(RL)に対する異なる定式化とアプローチの文献レビューの提供を目的とする。
まだ初期段階だが、継続的なrlの研究は、よりインクリメンタルな強化学習者を開発することを約束している。
これには、医療、教育、物流、ロボット工学などの分野の応用が含まれる。
論文 参考訳(メタデータ) (2020-12-25T02:35:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。