論文の概要: Multi-group Agnostic PAC Learnability
- arxiv url: http://arxiv.org/abs/2105.09989v1
- Date: Thu, 20 May 2021 18:43:36 GMT
- ステータス: 処理完了
- システム内更新日: 2021-05-29 16:30:47.695342
- Title: Multi-group Agnostic PAC Learnability
- Title(参考訳): マルチグループAgnostic PAC学習性
- Authors: Guy N Rothblum, Gal Yona
- Abstract要約: マルチグループ非依存型PAC学習可能性」について検討する。
このような予測器が存在することが保証される損失関数のキャラクタリゼーションを提供する。
本研究は,複数群フェアネス文献から得られた前向きおよび負の結果を統一し,拡張するものである。
- 参考スコア(独自算出の注目度): 7.9649015115693444
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: An agnostic PAC learning algorithm finds a predictor that is competitive with
the best predictor in a benchmark hypothesis class, where competitiveness is
measured with respect to a given loss function. However, its predictions might
be quite sub-optimal for structured subgroups of individuals, such as protected
demographic groups. Motivated by such fairness concerns, we study "multi-group
agnostic PAC learnability": fixing a measure of loss, a benchmark class $\H$
and a (potentially) rich collection of subgroups $\G$, the objective is to
learn a single predictor such that the loss experienced by every group $g \in
\G$ is not much larger than the best possible loss for this group within $\H$.
Under natural conditions, we provide a characterization of the loss functions
for which such a predictor is guaranteed to exist. For any such loss function
we construct a learning algorithm whose sample complexity is logarithmic in the
size of the collection $\G$. Our results unify and extend previous positive and
negative results from the multi-group fairness literature, which applied for
specific loss functions.
- Abstract(参考訳): Agnostic PAC学習アルゴリズムは、与えられた損失関数に対して競合性を測定するベンチマーク仮説クラスにおいて、最良の予測子と競合する予測子を求める。
しかし、その予測は保護された集団のような個人の構造化されたサブグループにとって非常に最適であるかもしれない。
損失の尺度、ベンチマーククラス$\H$、および(潜在的に)豊富なサブグループのコレクションを固定すること。 目的は、すべてのグループ$g \in \G$が経験した損失が、$\H$内でこのグループにとって可能な限りの損失よりもそれほど大きくないように、単一の予測子を学習することである。
自然条件下では,そのような予測器が存在することを保証した損失関数のキャラクタリゼーションを提供する。
そのような損失関数に対して、サンプルの複雑さがコレクションサイズ$$G$の対数性を持つ学習アルゴリズムを構築する。
本結果は, 特定の損失関数に適用した多群フェアネス文献から, 先行の正および負の結果を統一し, 拡張するものである。
関連論文リスト
- Top-$k$ Classification and Cardinality-Aware Prediction [30.389055604165222]
和和と制約付き損失は、上位の$k$損失に対する$H$一貫性境界によって支持されることを示す。
本稿では、インスタンス依存型コスト依存学習を通じて、基数認識損失関数を導入する。
これらの損失を最小限に抑えることで、トップ$kの分類のための新しい濃度認識アルゴリズムが生まれる。
論文 参考訳(メタデータ) (2024-03-28T17:45:03Z) - Fair Active Ranking from Pairwise Preferences [6.102498508368527]
解離群に属する$n$の項目が与えられたとき、我々のゴールは、我々が提案する公正な目的関数に従って$(epsilon, delta)$-PACF-Rankingを見つけることである。
グループブラインドとグループアウェアの両方のアルゴリズムを提示し,そのサンプルパラメータを解析する。
論文 参考訳(メタデータ) (2024-02-05T18:09:48Z) - A structured regression approach for evaluating model performance across intersectional subgroups [53.91682617836498]
分散評価(disaggregated evaluation)は、AIフェアネスアセスメントにおける中心的なタスクであり、AIシステムのさまざまなサブグループ間でのパフォーマンスを測定することを目的としている。
非常に小さなサブグループであっても,信頼性の高いシステム性能推定値が得られることを示す。
論文 参考訳(メタデータ) (2024-01-26T14:21:45Z) - Agnostically Learning Multi-index Models with Queries [54.290489524576756]
本稿では,ガウス分布下での非依存学習の課題に対するクエリアクセスのパワーについて検討する。
クエリアクセスは、MIMを不可知的に学習するためのランダムな例よりも大幅に改善されていることを示す。
論文 参考訳(メタデータ) (2023-12-27T15:50:47Z) - Agnostic Multi-Group Active Learning [24.97598179536084]
能動的学習の観点から,この問題の変種を考察し,学習者がコレクションの各分布からどの例をラベル付けするかを判断する権限を付与する。
我々の主な課題は、不一致に基づくアクティブラーニングのような標準的なアクティブラーニング技術が、マルチグループラーニングの目的に直接適用されないことである。
既存のアルゴリズムを改良し、多群学習の非依存的な定式化のための一貫した能動的学習アルゴリズムを提供する。
論文 参考訳(メタデータ) (2023-06-02T21:24:13Z) - Characterizing the Optimal 0-1 Loss for Multi-class Classification with
a Test-time Attacker [57.49330031751386]
我々は,任意の離散データセット上の複数クラス分類器に対するテスト時間攻撃の存在下での損失に対する情報理論的下位境界を求める。
本稿では,データと敵対的制約から競合ハイパーグラフを構築する際に発生する最適0-1損失を求めるための一般的なフレームワークを提供する。
論文 参考訳(メタデータ) (2023-02-21T15:17:13Z) - The Group Loss++: A deeper look into group loss for deep metric learning [65.19665861268574]
グループ損失 (Group Loss) は、グループの全サンプルに埋め込まれた類似性を強制する微分可能なラベルプロパゲーション法に基づく損失関数である。
4つのデータセットでクラスタリングと画像検索の最先端結果を示し、2人の再識別データセットで競合結果を示す。
論文 参考訳(メタデータ) (2022-04-04T14:09:58Z) - Unified Negative Pair Generation toward Well-discriminative Feature Space for Face Recognition [2.816374336026564]
顔認識モデルは、$infmathcalSp > supmathcalSn$を満たす、よく識別可能な特徴空間(WDFS)を形成する。
本稿では,2つのPG戦略を組み合わせることにより,統一負対生成(UNPG)を提案する。
論文 参考訳(メタデータ) (2022-03-22T10:21:11Z) - Omnipredictors [19.735769148626588]
ロス最小化は機械学習において支配的なパラダイムである。
我々は家族の損失を最適化するために使用できる$mathcalL,mathcalC$)-omnipredictorの概念を紹介した。
このような「余分な知識」の学習は、多重校正とのつながりを通して実現可能であることを示す。
論文 参考訳(メタデータ) (2021-09-11T23:28:49Z) - Examining and Combating Spurious Features under Distribution Shift [94.31956965507085]
我々は、最小限の統計量という情報理論の概念を用いて、ロバストで刺激的な表現を定義し、分析する。
入力分布のバイアスしか持たない場合でも、モデルはトレーニングデータから急激な特徴を拾い上げることができることを証明しています。
分析から着想を得た結果,グループDROは,グループ同士の相関関係を直接考慮しない場合に失敗する可能性が示唆された。
論文 参考訳(メタデータ) (2021-06-14T05:39:09Z) - Learning by Minimizing the Sum of Ranked Range [58.24935359348289]
本稿では,学習目標を定式化するための一般的なアプローチとして,ランキング範囲(SoRR)の和を紹介した。
ランク付き範囲は、実数の集合のソートされた値の連続的なシーケンスである。
我々は,SoRRフレームワークの最小化のための機械学習における2つの応用,すなわち,バイナリ分類のためのAoRR集約損失とマルチラベル/マルチクラス分類のためのTKML個人損失について検討する。
論文 参考訳(メタデータ) (2020-10-05T01:58:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。