論文の概要: Skill-Aligned Fairness in Multi-Agent Learning for Collaboration in Healthcare
- arxiv url: http://arxiv.org/abs/2508.18708v1
- Date: Tue, 26 Aug 2025 06:19:33 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-27 17:42:38.700063
- Title: Skill-Aligned Fairness in Multi-Agent Learning for Collaboration in Healthcare
- Title(参考訳): 医療連携のためのマルチエージェント学習におけるスキルアライズドフェアネス
- Authors: Promise Osaine Ekpo, Brian La, Thomas Wiener, Saesha Agarwal, Arshia Agrawal, Gonzalo Gonzalez-Pumariega, Lekan P. Molu, Angelique Taylor,
- Abstract要約: 医療において、均等なタスク割り当ては、高度に熟練したエージェントの燃え尽きや過剰使用を防ぐために、ワークロードのバランスや専門知識の調整を必要とする。
作業負荷バランスとスキルタスクアライメントの両目的としてフェアネスを定義するフレームワークであるFairSkillMARLを提案する。
MARLHospitalは、チーム構成やエネルギー制約が公正性に与える影響をモデル化するための、カスタマイズ可能な医療インスピレーション付き環境である。
- 参考スコア(独自算出の注目度): 1.7466032719896134
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Fairness in multi-agent reinforcement learning (MARL) is often framed as a workload balance problem, overlooking agent expertise and the structured coordination required in real-world domains. In healthcare, equitable task allocation requires workload balance or expertise alignment to prevent burnout and overuse of highly skilled agents. Workload balance refers to distributing an approximately equal number of subtasks or equalised effort across healthcare workers, regardless of their expertise. We make two contributions to address this problem. First, we propose FairSkillMARL, a framework that defines fairness as the dual objective of workload balance and skill-task alignment. Second, we introduce MARLHospital, a customizable healthcare-inspired environment for modeling team compositions and energy-constrained scheduling impacts on fairness, as no existing simulators are well-suited for this problem. We conducted experiments to compare FairSkillMARL in conjunction with four standard MARL methods, and against two state-of-the-art fairness metrics. Our results suggest that fairness based solely on equal workload might lead to task-skill mismatches and highlight the need for more robust metrics that capture skill-task misalignment. Our work provides tools and a foundation for studying fairness in heterogeneous multi-agent systems where aligning effort with expertise is critical.
- Abstract(参考訳): マルチエージェント強化学習(MARL)の公正性は、エージェントの専門知識と現実世界のドメインで必要とされる構造的協調性を見越して、ワークロードバランスの問題として扱われることが多い。
医療において、均等なタスク割り当ては、高度に熟練したエージェントの燃え尽きや過剰使用を防ぐために、ワークロードのバランスや専門知識の調整を必要とする。
ワークロードバランス(Workload balance)とは、専門知識に関係なく、およそ同じ数のサブタスクを、医療従事者間で配布することである。
私たちはこの問題に対処するために2つの貢献をしている。
まず、フェアネスをワークロードバランスとスキルタスクアライメントの二重目的として定義するフレームワークであるFairSkillMARLを提案する。
第二に、MARLHospitalは、チーム構成のモデリングとエネルギー制約によるスケジューリングが公平性に与える影響をモデル化するための、カスタマイズ可能な医療インスピレーション付き環境である。
本研究は,FairSkillMARLと4つの標準MARL法,および2つの最先端公正度指標との比較実験を行った。
我々の結果は、均等なワークロードのみに基づく公平さは、タスクスキルのミスマッチを引き起こし、スキルタスクのミスアライメントをキャプチャするより堅牢なメトリクスの必要性を強調します。
我々の研究は、専門知識との整合性が不可欠である異種マルチエージェントシステムにおいて、公正性を研究するためのツールと基盤を提供する。
関連論文リスト
- Interactional Fairness in LLM Multi-Agent Systems: An Evaluation Framework [0.0]
マルチエージェントシステムにおける対人フェアネス(IF)と情報フェアネス(InfF)を含むインタラクションフェアネスを評価するための新しい枠組みを提案する。
我々は,資源交渉タスクの制御されたシミュレーションを用いて,パイロットスタディを通じて,我々の枠組みを検証する。
その結果、客観的な結果が一定である場合でも、トーンと正当化品質が受容決定に大きく影響を及ぼすことが示された。
論文 参考訳(メタデータ) (2025-05-17T13:24:13Z) - Predicting Multi-Agent Specialization via Task Parallelizability [4.9553580237478]
環境制約がタスクの並列性を制限する場合、スペシャリストチームはジェネラリストよりも優れていることを示す。
また、状態空間が拡大するにつれて、エージェントは理論上より効率的である場合でも、専門家戦略に収束する傾向にあることも観察する。
本研究は,タスクと環境に配慮した特殊化を解釈するための原則的枠組みを提供する。
論文 参考訳(メタデータ) (2025-03-19T21:33:48Z) - Cooperation and Fairness in Multi-Agent Reinforcement Learning [6.164771707307928]
移動・輸送システムの資源に制約のある環境では、公平さを犠牲にして効率性を実現することができる。
マルチエージェント強化学習(MARL)を用いた分散エージェント群に対する公平なマルチエージェントナビゲーションの問題を考える。
このモデルでは, ランダムな代入を用いて訓練したベースラインに対して, 効率が14%向上し, 公平性が5%向上することがわかった。
論文 参考訳(メタデータ) (2024-10-19T00:10:52Z) - Fairness-Aware Meta-Learning via Nash Bargaining [63.44846095241147]
本稿では,機械学習におけるグループレベルの公平性の問題に対処する2段階のメタ学習フレームワークを提案する。
第1段階では、過度な競合を解決するためにNash Bargaining Solution(NBS)を使用して、モデルをステアリングする。
6つのキーフェアネスデータセットと2つの画像分類タスクにおいて、様々なフェアネス目標に対して経験的効果を示す。
論文 参考訳(メタデータ) (2024-06-11T07:34:15Z) - Fair Few-shot Learning with Auxiliary Sets [53.30014767684218]
多くの機械学習(ML)タスクでは、ラベル付きデータサンプルしか収集できないため、フェアネスのパフォーマンスが低下する可能性がある。
本稿では,限定的なトレーニングサンプルを用いたフェアネス認識学習課題をemphfair few-shot Learning問題として定義する。
そこで我々は,学習した知識をメタテストタスクに一般化し,様々なメタトレーニングタスクに公平な知識を蓄積する新しいフレームワークを考案した。
論文 参考訳(メタデータ) (2023-08-28T06:31:37Z) - DualFair: Fair Representation Learning at Both Group and Individual
Levels via Contrastive Self-supervision [73.80009454050858]
この研究は、DualFairと呼ばれる自己教師型モデルを提示し、学習された表現から性別や人種などのセンシティブな属性をデバイアスすることができる。
我々のモデルは、グループフェアネスと対実フェアネスという2つのフェアネス基準を共同で最適化する。
論文 参考訳(メタデータ) (2023-03-15T07:13:54Z) - Skill-Based Reinforcement Learning with Intrinsic Reward Matching [77.34726150561087]
Intrinsic Reward Matching (IRM) を提案する。
IRMにより、従来のスキル選択方法よりもはるかに効果的に事前訓練されたスキルを活用できる。
論文 参考訳(メタデータ) (2022-10-14T00:04:49Z) - Fair Machine Learning in Healthcare: A Review [90.22219142430146]
我々は、機械学習と医療格差における公正性の交差を分析する。
機械学習の観点から、関連する公正度メトリクスを批判的にレビューする。
本稿では,医療における倫理的かつ公平なMLアプリケーション開発を約束する新たな研究指針を提案する。
論文 参考訳(メタデータ) (2022-06-29T04:32:10Z) - Understanding and Improving Fairness-Accuracy Trade-offs in Multi-Task
Learning [18.666340309506605]
我々は,マルチタスクシナリオにおいて,MLフェアネスの概念としてのグループフェアネスが果たす役割を懸念している。
マルチタスク学習では、より効率的な帰納的伝達のためにタスク相関を利用するために、複数のタスクが共同で学習される。
マルチタスク学習における公平性向上のためのマルチタスク認識フェアネス(MTA-F)アプローチを提案する。
論文 参考訳(メタデータ) (2021-06-04T20:28:54Z) - Softmax with Regularization: Better Value Estimation in Multi-Agent
Reinforcement Learning [72.28520951105207]
q$-learningの過大評価は、シングルエージェント強化学習で広く研究されている重要な問題である。
ベースラインから逸脱する大きな関節動作値をペナライズする,新たな正規化ベースの更新方式を提案する。
本手法は,StarCraft IIマイクロマネジメントの課題に対して,一貫した性能向上を実現する。
論文 参考訳(メタデータ) (2021-03-22T14:18:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。