論文の概要: Efficient Resource Allocation with Fairness Constraints in Restless
Multi-Armed Bandits
- arxiv url: http://arxiv.org/abs/2206.03883v1
- Date: Wed, 8 Jun 2022 13:28:29 GMT
- ステータス: 処理完了
- システム内更新日: 2022-06-09 14:12:31.533582
- Title: Efficient Resource Allocation with Fairness Constraints in Restless
Multi-Armed Bandits
- Title(参考訳): レストレスマルチアームバンドにおけるフェアネス制約を考慮した効率的な資源配分
- Authors: Dexun Li and Pradeep Varakantham
- Abstract要約: Restless Multi-Armed Bandits (RMAB)は、公衆衛生介入における意思決定問題を表現するための適応モデルである。
本稿では,RMAB意思決定が期待値の最大化を図りつつ,異なるアームに対して公平であることを保証することに関心がある。
- 参考スコア(独自算出の注目度): 8.140037969280716
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Restless Multi-Armed Bandits (RMAB) is an apt model to represent
decision-making problems in public health interventions (e.g., tuberculosis,
maternal, and child care), anti-poaching planning, sensor monitoring,
personalized recommendations and many more. Existing research in RMAB has
contributed mechanisms and theoretical results to a wide variety of settings,
where the focus is on maximizing expected value. In this paper, we are
interested in ensuring that RMAB decision making is also fair to different arms
while maximizing expected value. In the context of public health settings, this
would ensure that different people and/or communities are fairly represented
while making public health intervention decisions. To achieve this goal, we
formally define the fairness constraints in RMAB and provide planning and
learning methods to solve RMAB in a fair manner. We demonstrate key theoretical
properties of fair RMAB and experimentally demonstrate that our proposed
methods handle fairness constraints without sacrificing significantly on
solution quality.
- Abstract(参考訳): Restless Multi-Armed Bandits (RMAB)は、公衆衛生介入(例えば、結核、母体、子育て)、反ポーチ計画、センサーモニタリング、パーソナライズされたレコメンデーションなどにおける意思決定の問題を表現するためのアプドモデルである。
RMABの既存の研究は、期待値の最大化に焦点をあてた様々な設定に、メカニズムと理論的結果に貢献している。
本稿では,RMAB意思決定が期待値の最大化を図りつつ,異なるアームに対して公平であることを保証することに関心がある。
公衆衛生の状況では、異なる人々やコミュニティが、公衆衛生介入の決定をしながら公平に表現されることを保証する。
この目的を達成するために, RMABにおける公正性制約を正式に定義し, RMABを公平に解決するための計画と学習方法を提供する。
fair rmab の重要な理論的性質を実証し,提案手法が溶液品質を犠牲にすることなく公平性制約を処理できることを実験的に証明した。
関連論文リスト
- Combinatorial Multivariant Multi-Armed Bandits with Applications to Episodic Reinforcement Learning and Beyond [58.39457881271146]
CMAB(Multi-armed bandits)の多変量および確率的トリガーアーム(CMAB-MT)を用いた新しい枠組みを導入する。
CMAB-MTは既存のCMABと比べ、モデリング能力を高めるだけでなく、多変量確率変数の異なる統計特性を活用することで結果を改善することができる。
本フレームワークは, エピソード強化学習(RL)や商品分布の確率的最大カバレッジなど, 応用として多くの重要な問題を含むことができる。
論文 参考訳(メタデータ) (2024-06-03T14:48:53Z) - Chain-of-Thought Prompting for Demographic Inference with Large Multimodal Models [58.58594658683919]
大規模マルチモーダルモデル (LMM) は、様々な研究課題において変換可能性を示している。
以上の結果から,LMMはゼロショット学習,解釈可能性,未修正入力の処理に長所があることが示唆された。
本稿では,目標外予測問題を効果的に緩和するChain-of-Thought拡張プロンプト手法を提案する。
論文 参考訳(メタデータ) (2024-05-24T16:26:56Z) - A Bayesian Approach to Online Learning for Contextual Restless Bandits with Applications to Public Health [36.83063109531146]
RMABに対するオンラインRLアプローチであるBCoR(Bayesian Learning for Contextual RMABs)について述べる。
BCoRの重要な強みは、腕内と腕間の共有情報を利用して、未知のRMAB遷移ダイナミクスを素早く学習する能力である。
論文 参考訳(メタデータ) (2024-02-07T15:11:37Z) - Online Restless Multi-Armed Bandits with Long-Term Fairness Constraints [17.403031677689427]
我々は「長期公正制約」を持つ新しいRMABモデルを導入する。
オンラインRMAB-F設定では、各腕に関連する基礎となるMDPがDMに未知である。
Fair-UCRLは、報酬の後悔と公正性違反の両面において、確率的サブリニア境界を保証することを証明している。
論文 参考訳(メタデータ) (2023-12-16T03:35:56Z) - Deep Reinforcement Learning for Efficient and Fair Allocation of Health Care Resources [47.57108369791273]
医療資源の枯渇は、レーションの避けられない結果をもたらす可能性がある。
医療資源割り当てプロトコルの普遍的な標準は存在しない。
本稿では,患者の疾患進行と患者間の相互作用効果を統合するためのトランスフォーマーベースのディープQネットワークを提案する。
論文 参考訳(メタデータ) (2023-09-15T17:28:06Z) - Equitable Restless Multi-Armed Bandits: A General Framework Inspired By
Digital Health [23.762981395335217]
Restless Multi-armed Bandits (RMAB) は、限られたリソースを持つシーケンシャルな設定でアルゴリズムによる意思決定を行う一般的なフレームワークである。
RMABは、公衆衛生、治療スケジュール、密猟、そしてこの仕事の動機であるデジタル健康などの繊細な決定にますます使われています。
我々は、RMABの公平な目標を初めて検討し、公平性文学、ミニマックス報酬、最大ナッシュ福祉の2つの目標について考察する。
我々は,前者に対する水充填アルゴリズムと,異なる群の大きさのバランスをとるための理論的動機付けされたニュアンスをもつグリーディアルゴリズムをそれぞれ解くための効率的なアルゴリズムを開発した。
論文 参考訳(メタデータ) (2023-08-17T13:00:27Z) - Mimicking Better by Matching the Approximate Action Distribution [48.95048003354255]
そこで我々は,Imitation Learning from Observationsのための新しい,サンプル効率の高いオンライン政治アルゴリズムMAADを紹介する。
我々は、専門家のパフォーマンスを達成するためには、かなり少ないインタラクションが必要であり、現在最先端の政治手法よりも優れていることを示す。
論文 参考訳(メタデータ) (2023-06-16T12:43:47Z) - Causal Fairness for Outcome Control [68.12191782657437]
本稿では,自動システムにおいて,公平かつ公平な結果変数を最適化することを目的とした,結果制御と呼ばれる特定の意思決定タスクについて検討する。
本稿では、まず因果レンズを通して利益の概念を分析し、特定の個人が肯定的な決定によってどれだけの利益を得られるかを明らかにする。
次に、保護された属性の影響を受けている可能性があることに留意し、これを分析するために使用できる因果的ツールを提案する。
論文 参考訳(メタデータ) (2023-06-08T09:31:18Z) - Limited Resource Allocation in a Non-Markovian World: The Case of
Maternal and Child Healthcare [27.812174610119452]
低リソース環境におけるスケジューリング介入の問題点を考察し,順応性やエンゲージメントを高めることを目的とする。
過去の研究は、この問題に対する数種類のRestless Multi-armed Bandit (RMAB) ベースのソリューションの開発に成功している。
我々のパートナーであるNGO ARMMAN の母体健康意識プログラムにおける実世界データに対する Markov の仮定から大きく逸脱した。
一般化された非マルコフ的RMAB設定に取り組むために、(i)各参加者の軌跡を時系列としてモデル化し、(ii)時系列予測モデルのパワーを利用して将来の状態を予測し、(iii)時間を提案する。
論文 参考訳(メタデータ) (2023-05-22T02:26:29Z) - Towards Soft Fairness in Restless Multi-Armed Bandits [8.140037969280716]
Restless Multi-armed bandits (RMAB)は、限られた資源を不確実性の下で割り当てるためのフレームワークである。
個人・地域・コミュニティ間の介入による飢餓を避けるため、まずソフトフェアネス制約を提供する。
次に、RMABのソフトフェアネス制約を強制するアプローチを提案する。
論文 参考訳(メタデータ) (2022-07-27T07:56:32Z) - Collapsing Bandits and Their Application to Public Health Interventions [45.45852113386041]
Collpasing Banditsは、新しいレスレスマルチアーム・バンディット(RMAB)セットで、各アームがバイナリ状態のマルコフ過程に従う。
我々は、RMABのWhittle index技術を用いて、Colapsing Bandits問題がインデックス化可能である条件を導出する。
本アルゴリズムは,最先端のRMAB技術と比較して3次精度の高速化を実現する。
論文 参考訳(メタデータ) (2020-07-05T00:33:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。