論文の概要: A Unified Approach to Fair Online Learning via Blackwell Approachability
- arxiv url: http://arxiv.org/abs/2106.12242v1
- Date: Wed, 23 Jun 2021 09:00:12 GMT
- ステータス: 処理完了
- システム内更新日: 2021-06-24 15:33:14.968793
- Title: A Unified Approach to Fair Online Learning via Blackwell Approachability
- Title(参考訳): ブラックウェルによる公正オンライン学習への統一的アプローチ
- Authors: Evgenii Chzhen (LMO, CELESTE), Christophe Giraud (LMO, CELESTE),
Gilles Stoltz (LMO, CELESTE)
- Abstract要約: 我々は、センシティブで非センシティブな文脈でオンライン学習を公平にするための設定と一般的なアプローチを提供する。
無意識の概念に触発されて、プレイヤーは決定を下す前に、非感受性のコンテキストにしかアクセスできないと仮定する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We provide a setting and a general approach to fair online learning with
stochastic sensitive and non-sensitive contexts. The setting is a repeated game
between the Player and Nature, where at each stage both pick actions based on
the contexts. Inspired by the notion of unawareness, we assume that the Player
can only access the non-sensitive context before making a decision, while we
discuss both cases of Nature accessing the sensitive contexts and Nature
unaware of the sensitive contexts. Adapting Blackwell's approachability theory
to handle the case of an unknown contexts' distribution, we provide a general
necessary and sufficient condition for learning objectives to be compatible
with some fairness constraints. This condition is instantiated on (group-wise)
no-regret and (group-wise) calibration objectives, and on demographic parity as
an additional constraint. When the objective is not compatible with the
constraint, the provided framework permits to characterise the optimal
trade-off between the two.
- Abstract(参考訳): 確率的かつ非敏感な文脈でオンライン学習を公平に行うための設定と一般的なアプローチを提供する。
設定はプレイヤーと自然の間の繰り返しのゲームであり、それぞれのステージにおいてそれぞれのコンテキストに基づいてアクションを選択する。
不知性の概念に触発されて、プレイヤーは決定を下す前に非敏感なコンテキストにしかアクセスできないと仮定し、同時に、敏感なコンテキストにアクセスする自然のケースと、敏感なコンテキストに気付いていない自然のケースについて論じる。
未知の文脈分布の場合を扱うためにブラックウェルのアプローチ可能性理論を適用することにより、学習目的が公正性制約に適合するために必要な一般的な条件を提供する。
この条件は (group-wise) no-regret と (group-wise) calibration の目的と、追加の制約として人口順にインスタンス化される。
目的が制約と適合しない場合、提供されたフレームワークは、両者間の最適なトレードオフを特徴付けることができる。
関連論文リスト
- Towards Interpretable Reinforcement Learning with Constrained Normalizing Flow Policies [5.6872893893453105]
強化学習ポリシーは一般にブラックボックスニューラルネットワークによって表現される。
本稿では,フローポリシを解釈可能かつ安全な構成ポリシーモデルとして,制約付き正規化を提案する。
論文 参考訳(メタデータ) (2024-05-02T11:40:15Z) - Few-Shot Adversarial Prompt Learning on Vision-Language Models [62.50622628004134]
知覚不能な逆境摂動に対するディープニューラルネットワークの脆弱性は、広く注目を集めている。
それまでの努力は、相手の視覚的特徴をテキストの監督と整合させることで、ゼロショットの敵の堅牢性を達成した。
本稿では、限られたデータで入力シーケンスを適応させることで、対向性を大幅に向上させる、数ショットの対向的プロンプトフレームワークを提案する。
論文 参考訳(メタデータ) (2024-03-21T18:28:43Z) - Learning with Complementary Labels Revisited: The Selected-Completely-at-Random Setting Is More Practical [66.57396042747706]
補完ラベル学習は、弱教師付き学習問題である。
均一分布仮定に依存しない一貫したアプローチを提案する。
相補的なラベル学習は、負のラベル付きバイナリ分類問題の集合として表現できる。
論文 参考訳(メタデータ) (2023-11-27T02:59:17Z) - Emergent Communication for Rules Reasoning [38.24159397787027]
エージェントが高レベルのルールを推論し伝達することを奨励する認知指向環境であるReasoning Gameを提案する。
実験結果から,Reasoning Gameでは,意味論的に安定かつ構成的な言語が出現し,推論問題を解くことが示唆された。
論文 参考訳(メタデータ) (2023-11-08T05:57:39Z) - Group fairness without demographics using social networks [29.073125057536014]
グループフェアネス(英: Group Fairness)は、人種、性別、障害などのセンシティブな属性に基づいて、個人の好ましくない扱いを防止するための一般的なアプローチである。
そこで本稿では, センシティブな属性に依存しないフェアネスの「グループフリー」尺度を提案する。
論文 参考訳(メタデータ) (2023-05-19T00:45:55Z) - Group Fairness with Uncertainty in Sensitive Attributes [34.608332397776245]
公正な予測モデルは、ハイテイクなアプリケーションにおける少数派グループに対する偏見のある決定を緩和するために不可欠である。
本稿では, 感度特性の不確実性にも拘わらず, フェアネスの目標レベルを達成するブートストラップに基づくアルゴリズムを提案する。
本アルゴリズムは離散的属性と連続的属性の両方に適用可能であり,実世界の分類や回帰作業に有効である。
論文 参考訳(メタデータ) (2023-02-16T04:33:00Z) - Fairness in Matching under Uncertainty [78.39459690570531]
アルゴリズム的な二面市場は、こうした設定における公平性の問題に注意を向けている。
我々は、利益の不確実性を尊重する両面の市場設定において、個々人の公正性の概念を公理化する。
そこで我々は,配当よりも公平なユーティリティ最大化分布を求めるために,線形プログラミングフレームワークを設計する。
論文 参考訳(メタデータ) (2023-02-08T00:30:32Z) - Contextual Bandits and Optimistically Universal Learning [32.14208422566497]
私たちは一貫性に重点を置いています -- 最適な政策に比べて後悔を消します。
非i.d.文脈の大規模クラスでは、時間不変の報酬機構によらず一貫性が達成できることが示される。
論文 参考訳(メタデータ) (2022-12-31T16:15:28Z) - Conditional Supervised Contrastive Learning for Fair Text Classification [59.813422435604025]
対照的な学習を通してテキスト分類のための等化オッズとして知られる公平性の概念を満たす学習公正表現について研究する。
具体的には、まず、公正性制約のある学習表現と条件付き教師付きコントラスト目的との間の関係を理論的に分析する。
論文 参考訳(メタデータ) (2022-05-23T17:38:30Z) - A Regularized Implicit Policy for Offline Reinforcement Learning [54.7427227775581]
オフラインの強化学習は、環境とのさらなるインタラクションなしに、固定データセットから学習を可能にする。
フレキシブルだが十分に調整された完全実装ポリシーの学習を支援するフレームワークを提案する。
D4RLデータセットの実験とアブレーション研究により、我々のフレームワークとアルゴリズム設計の有効性が検証された。
論文 参考訳(メタデータ) (2022-02-19T20:22:04Z) - Don't Judge an Object by Its Context: Learning to Overcome Contextual
Bias [113.44471186752018]
既存のモデルは、認識精度を向上させるために、オブジェクトとそのコンテキスト間の共起を利用することが多い。
この研究は、学習した特徴表現の堅牢性を改善するために、そのような文脈バイアスに対処することに焦点を当てている。
論文 参考訳(メタデータ) (2020-01-09T18:31:55Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。