論文の概要: Minimax Group Fairness in Strategic Classification
- arxiv url: http://arxiv.org/abs/2410.02513v1
- Date: Thu, 3 Oct 2024 14:22:55 GMT
- ステータス: 処理完了
- システム内更新日: 2024-11-04 02:51:33.647845
- Title: Minimax Group Fairness in Strategic Classification
- Title(参考訳): 戦略分類におけるミニマックス群フェアネス
- Authors: Emily Diana, Saeed Sharifi-Malvajerdi, Ali Vakilian,
- Abstract要約: 戦略的分類において、エージェントは、学習者の分類器から肯定的な分類結果を受け取るために、その特徴をコストで操作する。
精度保証に加えて,グループフェアネス保証を有する学習目標について検討する。
我々は、複数のグループからなるエージェントの集団間のフェアネスを意識したスタックルバーグゲームを形式化し、各グループは独自のコスト関数を持つ。
- 参考スコア(独自算出の注目度): 8.250258160056514
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In strategic classification, agents manipulate their features, at a cost, to receive a positive classification outcome from the learner's classifier. The goal of the learner in such settings is to learn a classifier that is robust to strategic manipulations. While the majority of works in this domain consider accuracy as the primary objective of the learner, in this work, we consider learning objectives that have group fairness guarantees in addition to accuracy guarantees. We work with the minimax group fairness notion that asks for minimizing the maximal group error rate across population groups. We formalize a fairness-aware Stackelberg game between a population of agents consisting of several groups, with each group having its own cost function, and a learner in the agnostic PAC setting in which the learner is working with a hypothesis class H. When the cost functions of the agents are separable, we show the existence of an efficient algorithm that finds an approximately optimal deterministic classifier for the learner when the number of groups is small. This algorithm remains efficient, both statistically and computationally, even when H is the set of all classifiers. We then consider cost functions that are not necessarily separable and show the existence of oracle-efficient algorithms that find approximately optimal randomized classifiers for the learner when H has finite strategic VC dimension. These algorithms work under the assumption that the learner is fully transparent: the learner draws a classifier from its distribution (randomized classifier) before the agents respond by manipulating their feature vectors. We highlight the effectiveness of such transparency in developing oracle-efficient algorithms. We conclude with verifying the efficacy of our algorithms on real data by conducting an experimental analysis.
- Abstract(参考訳): 戦略的分類において、エージェントは、学習者の分類器から肯定的な分類結果を受け取るために、その特徴をコストで操作する。
このような環境での学習者の目標は、戦略的操作に堅牢な分類器を学習することである。
この領域のほとんどの研究は、精度を学習者の主目的とみなしているが、本研究では、精度の保証に加えて、グループ公正性を保証する学習目標について検討する。
我々は、集団群間の最大群誤差率を最小化するミニマックス群フェアネスの概念で研究する。
我々は,複数のグループからなるエージェントの集団間の公正性を意識したStackelbergゲームを,各グループが独自のコスト関数を持ち,学習者が仮説クラスHで作業している不可知的PAC設定において学習者が学習する形で形式化する。
このアルゴリズムは、H がすべての分類器の集合である場合でも、統計的にも計算的にも効率的である。
次に、必ずしも分離可能ではないコスト関数を考察し、Hが有限な戦略的VC次元を持つ場合、学習者に対してほぼ最適なランダム化分類器を求めるオラクル効率アルゴリズムの存在を示す。
学習者は、エージェントが特徴ベクトルを操作する前に、その分布(ランダム化分類器)から分類器を引き出す。
オラクル効率のアルゴリズム開発におけるこのような透明性の有効性を強調した。
実験により,実データに対するアルゴリズムの有効性を検証した。
関連論文リスト
- Achieving More with Less: A Tensor-Optimization-Powered Ensemble Method [53.170053108447455]
アンサンブル学習(英: Ensemble learning)は、弱い学習者を利用して強力な学習者を生み出す方法である。
我々は、マージンの概念を活かした滑らかで凸な目的関数を設計し、強力な学習者がより差別的になるようにした。
そして、我々のアルゴリズムを、多数のデータセットの10倍の大きさのランダムな森林や他の古典的な手法と比較する。
論文 参考訳(メタデータ) (2024-08-06T03:42:38Z) - Optimally Improving Cooperative Learning in a Social Setting [4.200480236342444]
個人所有の分類器を持つネットワークエージェントの集合を動的に更新する協調学習シナリオを考察する。
本稿では,集合目的関数を最適化するための時間アルゴリズムを示し,平等目的関数の最適化がNPハードであることを示す。
全てのアルゴリズムの性能は数学的解析によって保証され、合成データと実データの実験によって裏付けられている。
論文 参考訳(メタデータ) (2024-05-31T14:07:33Z) - The Role of Learning Algorithms in Collective Action [8.955918346078935]
本研究では,学習アルゴリズムの特性に大きく依存していることを示す。
このことは、機械学習における集団行動の影響を研究する際に、学習アルゴリズムを考慮に入れる必要性を強調している。
論文 参考訳(メタデータ) (2024-05-10T16:36:59Z) - Collaborative Learning with Different Labeling Functions [7.228285747845779]
我々は、$n$のデータ分布ごとに正確な分類器を学習することを目的とした、協調型PAC学習の亜種について研究する。
データ分布がより弱い実現可能性の仮定を満たす場合、サンプル効率の学習は依然として可能であることを示す。
論文 参考訳(メタデータ) (2024-02-16T04:32:22Z) - Bayesian Strategic Classification [11.439576371711711]
戦略分類における学習者による部分的情報公開の研究について検討する。
エージェントの操作能力を高めつつも,そのような部分的な情報公開が学習者の正確さにどのように寄与するかを示す。
論文 参考訳(メタデータ) (2024-02-13T19:51:49Z) - A Hard-to-Beat Baseline for Training-free CLIP-based Adaptation [121.0693322732454]
対照的に、CLIP(Contrastive Language- Image Pretraining)はその目覚ましいゼロショット能力で人気を集めている。
近年の研究では、下流タスクにおけるCLIPの性能を高めるための効率的な微調整手法の開発に焦点が当てられている。
従来のアルゴリズムであるガウス判別分析(GDA)を再検討し,CLIPの下流分類に適用する。
論文 参考訳(メタデータ) (2024-02-06T15:45:27Z) - Beyond Submodularity: A Unified Framework of Randomized Set Selection
with Group Fairness Constraints [19.29174615532181]
グループフェアネス制約を組み込んだランダム化サブセット選択のための統一フレームワークを提案する。
我々の問題には、グローバルなユーティリティ関数と、各グループに対するグループユーティリティ関数のセットが含まれる。
我々の目的は、各実現可能な集合の選択確率を指定して、実現可能な部分集合にまたがる分布を生成することである。
論文 参考訳(メタデータ) (2023-04-13T15:02:37Z) - Towards Diverse Evaluation of Class Incremental Learning: A Representation Learning Perspective [67.45111837188685]
クラスインクリメンタル学習(CIL)アルゴリズムは、インクリメンタルに到着したデータから新しいオブジェクトクラスを継続的に学習することを目的としている。
表現学習における様々な評価プロトコルを用いて,CILアルゴリズムによって訓練されたニューラルネットワークモデルを実験的に解析する。
論文 参考訳(メタデータ) (2022-06-16T11:44:11Z) - Early Exiting with Ensemble Internal Classifiers [57.80488632985445]
早期退社はNLPコミュニティで注目を集めている。
本稿では,過去の全ての内部分類器の予測から正しいラベルを推測する投票方式を提案する。
様々なNLPタスクに対する実験結果から,提案した目的関数と投票に基づく戦略により,より精度の高いトレードオフが達成できることが示唆された。
論文 参考訳(メタデータ) (2021-05-28T12:54:11Z) - Fast Few-Shot Classification by Few-Iteration Meta-Learning [173.32497326674775]
数ショット分類のための高速な最適化に基づくメタラーニング手法を提案する。
我々の戦略はメタ学習において学習すべき基礎学習者の目的の重要な側面を可能にする。
我々は、我々のアプローチの速度と効果を実証し、総合的な実験分析を行う。
論文 参考訳(メタデータ) (2020-10-01T15:59:31Z) - Optimal Clustering from Noisy Binary Feedback [75.17453757892152]
本稿では,二元的ユーザフィードバックから一組のアイテムをクラスタリングする問題について検討する。
最小クラスタ回復誤差率のアルゴリズムを考案する。
適応選択のために,情報理論的誤差下界の導出にインスパイアされたアルゴリズムを開発する。
論文 参考訳(メタデータ) (2019-10-14T09:18:26Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。