論文の概要: Online Fair Revenue Maximizing Cake Division with Non-Contiguous Pieces
in Adversarial Bandits
- arxiv url: http://arxiv.org/abs/2111.14387v1
- Date: Mon, 29 Nov 2021 09:01:29 GMT
- ステータス: 処理完了
- システム内更新日: 2021-11-30 18:31:42.941785
- Title: Online Fair Revenue Maximizing Cake Division with Non-Contiguous Pieces
in Adversarial Bandits
- Title(参考訳): 隣接帯域における不連続成分を含むオンライン公正収益最大化ケーキ部門
- Authors: Mohammad Ghodsi, Amirmahdi Mirfakhar
- Abstract要約: 本研究は、非連続的なケーキをエージェント間で割り当てることに焦点を当てている。
我々は,古典的逆境型マルチアームバンディットをサブ線形フェアネスと収益レグレットの達成に利用した。
- 参考スコア(独自算出の注目度): 2.4671396651514987
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The classic cake-cutting problem provides a model for addressing the fair and
efficient allocation of a divisible, heterogeneous resource among agents with
distinct preferences. Focusing on a standard formulation of cake cutting, in
which each agent must receive a contiguous piece of the cake in an offline
setting, this work instead focuses on online allocating non-contiguous pieces
of cake among agents and establishes algorithmic results for fairness measures.
In this regard, we made use of classic adversarial multi-armed bandits to
achieve sub-linear Fairness and Revenue Regret at the same time. Adversarial
bandits are powerful tools to model the adversarial reinforcement learning
environments, that provide strong upper-bounds for regret of learning with just
observing one action's reward in each step by applying smart trade-off between
exploration and exploitation. This work studies the power of the famous EXP_3
algorithm that is based on exponential wight{-}importance updating probability
distribution through time horizon.
- Abstract(参考訳): 古典的なケーキカット問題は、異なる嗜好を持つエージェント間で分割可能で異質なリソースを公平かつ効率的に割り当てるモデルを提供する。
各エージェントがオフラインでケーキの連続的な部分を受け取らなければならないケーキ切断の標準的な定式化に焦点をあて、代わりに、エージェント間で非連続的なケーキを割り当てることに集中し、公正度対策のためのアルゴリズム的な結果を確立する。
そこで本研究では,古典的対向型マルチアームバンディットを用いて,サブ線形フェアネスと収益レグレットを同時に達成した。
敵の包帯は、敵の強化学習環境をモデル化するための強力なツールであり、探索と搾取の間のスマートなトレードオフを適用することで、各ステップで1つの行動の報奨を観察するだけで、後悔すべきことの強い上限を提供する。
本研究は,時間軸を用いた指数関数wight{-}importance更新確率分布に基づくexp_3アルゴリズムのパワーについて検討する。
関連論文リスト
- Competing Bandits in Decentralized Large Contextual Matching Markets [13.313881962771777]
我々は、需要側(プレイヤーまたはエージェント)が大きな供給側(腕)と競合する二面的マッチング市場における分散学習を研究する。
提案アルゴリズムは,腕の数によらず,インスタンス依存の対数的後悔を実現する。
論文 参考訳(メタデータ) (2024-11-18T18:08:05Z) - Balancing the Scales: Reinforcement Learning for Fair Classification [2.262217900462841]
分類タスクの公平性は、伝統的に神経表現からのバイアス除去に焦点を当ててきた。
最近の傾向は、トレーニングプロセスに公正さを埋め込むアルゴリズム的手法を好んでいる。
我々は、コンテキスト的マルチアーム・バンディット・フレームワークを採用し、我々の目的に合うように3つの人気のあるRLアルゴリズムを適用した。
論文 参考訳(メタデータ) (2024-07-15T11:28:16Z) - Fairness and robustness in anti-causal prediction [73.693135253335]
分散シフトと公平性に対するロバストさは、機械学習モデルに必要な2つの重要なデシラタとして独立に現れている。
これら2つのデシダラタは関連しているように見えるが、実際にはその関連性はしばしば不明である。
この観点から見れば、共通フェアネス基準(分離)とロバストネスの共通概念との明確な関係を描いています。
論文 参考訳(メタデータ) (2022-09-20T02:41:17Z) - How Robust is Your Fairness? Evaluating and Sustaining Fairness under
Unseen Distribution Shifts [107.72786199113183]
CUMA(CUrvature Matching)と呼ばれる新しいフェアネス学習手法を提案する。
CUMAは、未知の分布シフトを持つ未知の領域に一般化可能な頑健な公正性を達成する。
提案手法を3つの人気フェアネスデータセットで評価する。
論文 参考訳(メタデータ) (2022-07-04T02:37:50Z) - Towards Equal Opportunity Fairness through Adversarial Learning [64.45845091719002]
逆行訓練は、自然言語処理におけるバイアス緩和の一般的なアプローチである。
本稿では、よりリッチな特徴を生み出すために、ターゲットクラスをインプットとして利用する、対位訓練のための拡張判別器を提案する。
論文 参考訳(メタデータ) (2022-03-12T02:22:58Z) - Unfairness Despite Awareness: Group-Fair Classification with Strategic
Agents [37.31138342300617]
戦略エージェントは、より良好な結果を得るために観察された特徴ベクトルを操作する能力とインセンティブの両方を持っている可能性があることを示す。
さらに、有利な群が過剰に表現される領域で公平な学習を行う際に、公平な分類器の選択性が増大し、したがって公正さが失われることが示される。
論文 参考訳(メタデータ) (2021-12-06T02:42:43Z) - Anti-Concentrated Confidence Bonuses for Scalable Exploration [57.91943847134011]
固有の報酬は、探検と探検のトレードオフを扱う上で中心的な役割を果たす。
楕円ボーナスを効率的に近似するためのエンファンティ集中型信頼境界を導入する。
我々は,Atariベンチマーク上での現代固有の報酬と競合する,深層強化学習のための実用的な変種を開発する。
論文 参考訳(メタデータ) (2021-10-21T15:25:15Z) - Contrastive Learning for Fair Representations [50.95604482330149]
訓練された分類モデルは、意図せずバイアスのある表現や予測につながる可能性がある。
対戦訓練のような既存の分類モデルのデバイアス化手法は、訓練に高価であり、最適化が困難であることが多い。
比較学習を取り入れたバイアス軽減手法を提案し、同じクラスラベルを共有するインスタンスに類似した表現を推奨する。
論文 参考訳(メタデータ) (2021-09-22T10:47:51Z) - Causally-motivated Shortcut Removal Using Auxiliary Labels [63.686580185674195]
このようなリスク不変予測器の学習に重要な課題はショートカット学習である。
この課題に対処するために、フレキシブルで因果的なアプローチを提案する。
この因果的動機付けされた正規化スキームが堅牢な予測子を生み出すことを理論的および実証的に示す。
論文 参考訳(メタデータ) (2021-05-13T16:58:45Z) - Byzantine Resilient Distributed Multi-Task Learning [6.850757447639822]
タスク間の関連性を学習するための分散アルゴリズムは、ビザンティンエージェントの存在下では回復力がないことを示す。
ビザンチンレジリエントな分散マルチタスク学習のためのアプローチを提案する。
論文 参考訳(メタデータ) (2020-10-25T04:32:52Z) - Regularized Online Allocation Problems: Fairness and Beyond [7.433931244705934]
本稿では, 総資源消費に作用する非線形正規化器を含む変種である, 語彙化オンライン割当問題を紹介する。
この問題では、要求は時間とともに繰り返し届き、各要求に対して、意思決定者は報酬を生成しリソースを消費するアクションを取る必要があります。
目的は、資源制約を受ける加算可分な報酬と非分離可正則化器の値とを同時に最大化することである。
論文 参考訳(メタデータ) (2020-07-01T14:24:58Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。