論文の概要: On the Capacity Limits of Privileged ERM
- arxiv url: http://arxiv.org/abs/2303.02658v1
- Date: Sun, 5 Mar 2023 12:27:50 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-07 18:24:02.613676
- Title: On the Capacity Limits of Privileged ERM
- Title(参考訳): 特権ermの容量制限について
- Authors: Michal Sharoni and Sivan Sabato
- Abstract要約: 我々はPechyony and Vapnik (2010a) で提案された自然選択型EMMアルゴリズムの下での特権学習の理論とゼロワン損失について検討する。
一般化解析により、プリビリージERMの最悪の保証は、標準の非プライマリERMよりも改善できないことを示す。
- 参考スコア(独自算出の注目度): 21.58493386054356
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We study the supervised learning paradigm called Learning Using Privileged
Information, first suggested by Vapnik and Vashist (2009). In this paradigm, in
addition to the examples and labels, additional (privileged) information is
provided only for training examples. The goal is to use this information to
improve the classification accuracy of the resulting classifier, where this
classifier can only use the non-privileged information of new example instances
to predict their label. We study the theory of privileged learning with the
zero-one loss under the natural Privileged ERM algorithm proposed in Pechyony
and Vapnik (2010a). We provide a counter example to a claim made in that work
regarding the VC dimension of the loss class induced by this problem; We
conclude that the claim is incorrect. We then provide a correct VC dimension
analysis which gives both lower and upper bounds on the capacity of the
Privileged ERM loss class. We further show, via a generalization analysis, that
worst-case guarantees for Privileged ERM cannot improve over standard
non-privileged ERM, unless the capacity of the privileged information is
similar or smaller to that of the non-privileged information. This result
points to an important limitation of the Privileged ERM approach. In our
closing discussion, we suggest another way in which Privileged ERM might still
be helpful, even when the capacity of the privileged information is large.
- Abstract(参考訳): 本稿では,Vapnik と Vashist (2009) が提案した,Privileged Information を用いた学習という指導的学習パラダイムについて考察する。
このパラダイムでは、例とラベルに加えて、トレーニング例に対してのみ追加の(優先的な)情報が提供される。
目標は、この情報を使用して結果の分類器の分類精度を向上させることであり、この分類器は、新しいサンプルインスタンスの非特権情報のみを使用してラベルを予測できる。
我々は,pechyony and vapnik (2010a) で提案されている自然特権ermアルゴリズムを用いて,ゼロワン損失を用いた特権学習の理論を考察した。
我々は、この問題によって引き起こされた損失クラスのvc次元に関するその研究でなされた主張に対する反例を示し、その主張は誤りであると結論付ける。
次に、特権付きerm損失クラスのキャパシティの下限と上限の両方を与える正しいvc次元分析を提供する。
さらに、一般化分析により、特権情報の容量が非特権情報の容量と似ているか小さいかない限り、プリビレギンドEMMの最悪の保証は標準の非特権EMMよりも改善できないことを示す。
この結果は、Privleged ERMアプローチの重要な制限を示している。
閉会の議論では、特権情報の容量が大きい場合でも、Privleged ERMが役立つかもしれない別の方法を提案する。
関連論文リスト
- Towards Harmless Rawlsian Fairness Regardless of Demographic Prior [57.30787578956235]
トレーニングセットに事前の人口統計が提供されない場合に,有効性を損なうことなく公平性を達成する可能性を探る。
本稿では,経験的損失の最適セット内でのトレーニング損失の分散を最小限に抑えるため,VFairという簡単な手法を提案する。
論文 参考訳(メタデータ) (2024-11-04T12:40:34Z) - Fairness Without Harm: An Influence-Guided Active Sampling Approach [32.173195437797766]
我々は、モデルの精度に害を与えることなく、グループフェアネスの格差を軽減するモデルを訓練することを目指している。
公正なアクティブな学習アプローチのような現在のデータ取得方法は、通常、アノテートセンシティブな属性を必要とする。
トレーニンググループアノテーションに依存しない抽出可能なアクティブデータサンプリングアルゴリズムを提案する。
論文 参考訳(メタデータ) (2024-02-20T07:57:38Z) - A Generalized Unbiased Risk Estimator for Learning with Augmented
Classes [70.20752731393938]
ラベルなしのデータが与えられた場合、非バイアスリスク推定器(URE)が導出され、理論的保証のあるLACでは最小限にすることができる。
理論的な保証を維持しつつ任意の損失関数を装備できる一般化されたUREを提案する。
論文 参考訳(メタデータ) (2023-06-12T06:52:04Z) - Canary in a Coalmine: Better Membership Inference with Ensembled
Adversarial Queries [53.222218035435006]
私たちは、差別的で多様なクエリを最適化するために、逆ツールを使用します。
我々の改善は既存の方法よりもはるかに正確な会員推定を実現している。
論文 参考訳(メタデータ) (2022-10-19T17:46:50Z) - On the Trade-Off between Actionable Explanations and the Right to be
Forgotten [21.26254644739585]
データ削除要求の文脈におけるリコース無効化の問題について検討する。
トレーニングセットから最大2つのデータインスタンスを削除することで、一般的な最先端アルゴリズムによって出力されるすべてのリコースの最大95%を無効化できることを示す。
論文 参考訳(メタデータ) (2022-08-30T10:35:32Z) - Learning Fair Representations via Rate-Distortion Maximization [16.985698188471016]
本稿では,Fairness-Aware Rate Maximization (FaRM) を提案する。このFairness-Aware Rate Maximization (FaRM) は,Fairness-Aware Rate Maximization (FRM) 関数を用いて,同じ保護属性クラスに属するインスタンスの表現を非相関にすることで,人口統計情報を除去する。
FaRMは、複数のデータセット上で最先端のパフォーマンスを実現し、学習された表現は、非線形探索ネットワークによる攻撃に対する保護属性情報のリークを著しく少なくする。
論文 参考訳(メタデータ) (2022-01-31T19:00:52Z) - Risk Minimization from Adaptively Collected Data: Guarantees for
Supervised and Policy Learning [57.88785630755165]
経験的リスク最小化(Empirical Risk Minimization, ERM)は、機械学習のワークホースであるが、適応的に収集されたデータを使用すると、そのモデルに依存しない保証が失敗する可能性がある。
本研究では,仮説クラス上での損失関数の平均値を最小限に抑えるため,適応的に収集したデータを用いた一般的な重み付きERMアルゴリズムについて検討する。
政策学習では、探索がゼロになるたびに既存の文献のオープンギャップを埋める率-最適後悔保証を提供する。
論文 参考訳(メタデータ) (2021-06-03T09:50:13Z) - A Symmetric Loss Perspective of Reliable Machine Learning [87.68601212686086]
平衡誤差率 (BER) の最小化において, 対称損失が破損ラベルからのロバストな分類をいかに生み出すかを検討する。
我々は、関連するキーワードからのみ学習したい問題において、AUC手法が自然言語処理にどのように役立つかを実証する。
論文 参考訳(メタデータ) (2021-01-05T06:25:47Z) - Fairness without Demographics through Adversarially Reweighted Learning [20.803276801890657]
保護されたグループメンバーシップさえ知らない場合、フェアネスを改善するためにMLモデルをトレーニングします。
特に,非保護機能やタスクラベルは公平性の問題を特定する上で有用である,という仮説を立てる。
以上の結果から,ARLはRawlsian Max-Minフェアネスを向上し,複数のデータセットにおける最悪の保護グループに対するAUCの顕著な改善が見られた。
論文 参考訳(メタデータ) (2020-06-23T16:06:52Z) - Privileged Information Dropout in Reinforcement Learning [56.82218103971113]
トレーニング中に特権情報を使用することで、機械学習システムのサンプル効率とパフォーマンスを向上させることができる。
本研究では,価値に基づく強化学習アルゴリズムとポリシーに基づく強化学習アルゴリズムに等しく適用可能なプライヴィレグ情報ドロップアウト(pid)について検討する。
論文 参考訳(メタデータ) (2020-05-19T05:32:33Z) - Recovering from Biased Data: Can Fairness Constraints Improve Accuracy? [11.435833538081557]
経験的リスク最小化(Empirical Risk Minimization, ERM)は、バイアスがあるだけでなく、真のデータ分布に最適な精度を持つ分類器を生成する。
公平性に制約されたERMによるこの問題の是正能力について検討する。
また、トレーニングデータの再重み付け、等化オッド、復号化パリティなど、他のリカバリ手法についても検討する。
論文 参考訳(メタデータ) (2019-12-02T22:00:14Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。