論文の概要: Distributionally Robust Group Backwards Compatibility
- arxiv url: http://arxiv.org/abs/2112.10290v1
- Date: Mon, 20 Dec 2021 00:30:26 GMT
- ステータス: 処理完了
- システム内更新日: 2021-12-22 03:03:38.152025
- Title: Distributionally Robust Group Backwards Compatibility
- Title(参考訳): 分散ロバスト群後方互換性
- Authors: Martin Bertran, Natalia Martinez, Alex Oesterling, Guillermo Sapiro
- Abstract要約: 後方互換性エラーは機械学習モデルに影響を与える可能性がある。
トレーニングデータセットが人口人口全体を正確に反映していない場合、問題が発生する可能性がある。
分散ロバスト性とミニマックスフェアネスのアイデアが、このシナリオにおける後方互換性にどのように役立つかを分析する。
- 参考スコア(独自算出の注目度): 21.18576719710507
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Machine learning models are updated as new data is acquired or new
architectures are developed. These updates usually increase model performance,
but may introduce backward compatibility errors, where individual users or
groups of users see their performance on the updated model adversely affected.
This problem can also be present when training datasets do not accurately
reflect overall population demographics, with some groups having overall lower
participation in the data collection process, posing a significant fairness
concern. We analyze how ideas from distributional robustness and minimax
fairness can aid backward compatibility in this scenario, and propose two
methods to directly address this issue. Our theoretical analysis is backed by
experimental results on CIFAR-10, CelebA, and Waterbirds, three standard image
classification datasets. Code available at github.com/natalialmg/GroupBC
- Abstract(参考訳): 機械学習モデルは、新しいデータが取得されたり、新しいアーキテクチャが開発されるにつれて更新される。
これらの更新はモデルのパフォーマンスを向上するが、個々のユーザやユーザグループが、更新されたモデルでのパフォーマンスに悪影響を及ぼすような、後方互換性のエラーを起こす可能性がある。
トレーニングデータセットが全人口人口を正確に反映していない場合、データ収集プロセスへの全体的な参加が低いグループもあり、かなりの公正さを懸念するグループもある。
本稿では,分散的ロバスト性とミニマックスフェアネスのアイデアが,このシナリオにおける後方互換性をいかに支援できるかを分析し,この問題を直接解決するための2つの方法を提案する。
我々は,CIFAR-10,CelebA,Waterbirdsの3つの標準画像分類データセットを用いて解析を行った。
github.com/natalialmg/GroupBCで利用可能なコード
関連論文リスト
- Modeling the Q-Diversity in a Min-max Play Game for Robust Optimization [61.39201891894024]
群分布的ロバスト最適化(群 DRO)は、事前定義された群に対する最悪の損失を最小限にすることができる。
グループDROフレームワークをQ-Diversityを提案して再構築する。
インタラクティブなトレーニングモードによって特徴付けられるQ-Diversityは、アノテーションからグループ識別を緩和し、直接パラメータ化を行う。
論文 参考訳(メタデータ) (2023-05-20T07:02:27Z) - Ranking & Reweighting Improves Group Distributional Robustness [14.021069321266516]
本研究では,DRU(Discounted Rank Upweighting)と呼ばれるランキングベースのトレーニング手法を提案し,テストデータ上で強力なOOD性能を示すモデルを学習する。
いくつかの合成および実世界のデータセットの結果は、群分布シフトに頑健なモデルの選択と学習において、グループレベルの(ソフトミニマックスと異なり)アプローチの優れた能力を浮き彫りにしている。
論文 参考訳(メタデータ) (2023-05-09T20:37:16Z) - Non-Invasive Fairness in Learning through the Lens of Data Drift [88.37640805363317]
データや学習アルゴリズムを変更することなく、機械学習モデルの公平性を向上する方法を示す。
異なる集団間の傾向のばらつきと、学習モデルと少数民族間の連続的な傾向は、データドリフトと類似している。
このドリフトを解決するための2つの戦略(モデル分割とリウィーディング)を探索し、基礎となるデータに対するモデル全体の適合性を改善することを目的としている。
論文 参考訳(メタデータ) (2023-03-30T17:30:42Z) - Simplicity Bias Leads to Amplified Performance Disparities [8.60453031364566]
SGDで訓練されたモデルは、単純さに偏りがあることを示し、多数派の学習を優先させる。
モデルは、単純なデータセットのクラスやグループを優先順位付けし、複雑なものを見つけることを犠牲にすることができる。
論文 参考訳(メタデータ) (2022-12-13T15:24:41Z) - Take One Gram of Neural Features, Get Enhanced Group Robustness [23.541213868620837]
経験的リスク最小化で訓練された機械学習モデルの予測性能は、分散シフト下で大幅に低下する可能性がある。
本稿では,識別モデルの抽出した特徴の文法行列に基づいて,トレーニングデータセットをグループに分割する。
このアプローチは、ERMに対するグループロバスト性を向上するだけでなく、最近のすべてのベースラインを上回ります。
論文 参考訳(メタデータ) (2022-08-26T12:34:55Z) - Fair Group-Shared Representations with Normalizing Flows [68.29997072804537]
本研究では,異なるグループに属する個人を1つのグループにマッピングできる公正表現学習アルゴリズムを開発した。
提案手法は,他の公正表現学習アルゴリズムと競合することを示す。
論文 参考訳(メタデータ) (2022-01-17T10:49:49Z) - General Greedy De-bias Learning [163.65789778416172]
本稿では,関数空間における勾配降下のような偏りのあるモデルとベースモデルを優雅に訓練する一般グリーディ・デバイアス学習フレームワーク(GGD)を提案する。
GGDは、事前知識を持つタスク固有バイアスモデルと、事前知識を持たない自己アンサンブルバイアスモデルの両方の設定の下で、より堅牢なベースモデルを学ぶことができる。
論文 参考訳(メタデータ) (2021-12-20T14:47:32Z) - Examining and Combating Spurious Features under Distribution Shift [94.31956965507085]
我々は、最小限の統計量という情報理論の概念を用いて、ロバストで刺激的な表現を定義し、分析する。
入力分布のバイアスしか持たない場合でも、モデルはトレーニングデータから急激な特徴を拾い上げることができることを証明しています。
分析から着想を得た結果,グループDROは,グループ同士の相関関係を直接考慮しない場合に失敗する可能性が示唆された。
論文 参考訳(メタデータ) (2021-06-14T05:39:09Z) - Inclusive GAN: Improving Data and Minority Coverage in Generative Models [101.67587566218928]
データカバレッジの1つとしてマイノリティー・インクルージョンの問題を定式化する。
次に、再構成世代と敵対的トレーニングを調和させることにより、データカバレッジを改善することを提案する。
我々は、モデルが確実に含めるべきマイノリティサブグループを明示的に制御できる拡張を開発する。
論文 参考訳(メタデータ) (2020-04-07T13:31:33Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。