論文の概要: MIME: Minority Inclusion for Majority Group Enhancement of AI
Performance
- arxiv url: http://arxiv.org/abs/2209.00746v1
- Date: Thu, 1 Sep 2022 22:57:25 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-05 12:09:28.583641
- Title: MIME: Minority Inclusion for Majority Group Enhancement of AI
Performance
- Title(参考訳): MIME: 主要グループによるAIパフォーマンス向上のためのマイナーインクルージョン
- Authors: Pradyumna Chari, Yunhao Ba, Shreeram Athreya, Achuta Kadambi
- Abstract要約: いくつかの論文では、マイノリティグループや社会規模でのテスト推論を改善するために、人工知能(AI)トレーニングデータにマイノリティグループを含めている。
一般的な誤解は、少数派が多数派だけではパフォーマンスを向上しないということである。
本稿では,少数派のサンプルを含め,多数派のテストエラーを改善できるという驚きの発見を行う。
- 参考スコア(独自算出の注目度): 4.231181719953953
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Several papers have rightly included minority groups in artificial
intelligence (AI) training data to improve test inference for minority groups
and/or society-at-large. A society-at-large consists of both minority and
majority stakeholders. A common misconception is that minority inclusion does
not increase performance for majority groups alone. In this paper, we make the
surprising finding that including minority samples can improve test error for
the majority group. In other words, minority group inclusion leads to majority
group enhancements (MIME) in performance. A theoretical existence proof of the
MIME effect is presented and found to be consistent with experimental results
on six different datasets. Project webpage:
https://visual.ee.ucla.edu/mime.htm/
- Abstract(参考訳): いくつかの論文では、マイノリティグループや社会規模のテスト推論を改善するために、人工知能(AI)トレーニングデータにマイノリティグループを含めている。
社会全体は少数派と多数派の両方から成り立っている。
一般的な誤解は、少数派が多数派だけではパフォーマンスを向上しないということである。
本稿では,少数派のサンプルを含め,多数派のテストエラーを改善できるという驚きの発見を行う。
言い換えれば、少数派グループの参加は、パフォーマンスの多数派グループ拡張(MIME)につながる。
MIME効果の理論的存在証明が提示され、6つの異なるデータセットの実験結果と一致していることがわかった。
プロジェクトWebページ: https://visual.ee.ucla.edu/mime.htm/
関連論文リスト
- Outlier-Robust Group Inference via Gradient Space Clustering [50.87474101594732]
既存のメソッドは、最悪のグループのパフォーマンスを改善することができるが、それらは、しばしば高価で入手できないグループアノテーションを必要とする。
モデルパラメータの勾配の空間にデータをクラスタリングすることで,アウトレーヤの存在下でグループアノテーションを学習する問題に対処する。
そこで我々は,DBSCANのような標準クラスタリング手法に適合するように,マイノリティグループや外れ値に関する情報を保存しながら,勾配空間内のデータがより単純な構造を持つことを示す。
論文 参考訳(メタデータ) (2022-10-13T06:04:43Z) - How does overparametrization affect performance on minority groups? [39.54853544590893]
オーバーパラメータ化は常に少数群のパフォーマンスを改善することを示す。
多数派と少数派の回帰関数が異なる設定では、パラメータ化が常に少数派のパフォーマンスを改善することを示す。
論文 参考訳(メタデータ) (2022-06-07T18:00:52Z) - Cascaded Debiasing : Studying the Cumulative Effect of Multiple
Fairness-Enhancing Interventions [48.98659895355356]
本稿では機械学習(ML)パイプラインの異なる段階における多重公正強化介入の累積効果について検討する。
複数の介入を適用すると、集約に対する個々の介入よりも公平性と実用性が向上する。
マイナス面として、公平性向上の介入は異なる集団、特に特権集団に悪影響を及ぼす可能性がある。
論文 参考訳(メタデータ) (2022-02-08T09:20:58Z) - Towards Group Robustness in the presence of Partial Group Labels [61.33713547766866]
入力サンプルとターゲットラベルの間に 急激な相関関係がある ニューラルネットワークの予測を誤った方向に導く
本稿では,制約セットから最悪のグループ割り当てを最適化するアルゴリズムを提案する。
グループ間で総合的な集計精度を維持しつつ,少数集団のパフォーマンス向上を示す。
論文 参考訳(メタデータ) (2022-01-10T22:04:48Z) - The Majority Can Help The Minority: Context-rich Minority Oversampling
for Long-tailed Classification [20.203461156516937]
多様なマイノリティーサンプルを増補する新しいマイノリティーオーバーサンプリング法を提案する。
私たちのキーとなるアイデアは、フォアグラウンドパッチをマイノリティークラスから、豊かなコンテキストを持つ多数クラスの背景イメージに貼り付けることです。
本手法は,様々な長期分類ベンチマークにおける最先端性能を実現する。
論文 参考訳(メタデータ) (2021-12-01T10:58:30Z) - Random Walk-steered Majority Undersampling [10.227026799075215]
RWMaU(Random Walk-steered Majority Undersampling)を提案する。
RWMaUは、クラスのバランスをとるために、クラス不均衡なデータセットの多数点をアンサンプする。
21のデータセットと3つの分類器の実証評価により、競合する手法よりもRWMaUの性能が大幅に向上した。
論文 参考訳(メタデータ) (2021-09-25T19:07:41Z) - Counterfactual-based minority oversampling for imbalanced classification [11.140929092818235]
不均衡な分類におけるオーバーサンプリングの重要な課題は、新しい少数派標本の生成が多数派クラスの使用を無視することが多いことである。
対物理論に基づく新しいオーバーサンプリングフレームワークを提案する。
論文 参考訳(メタデータ) (2020-08-21T14:13:15Z) - An Investigation of Why Overparameterization Exacerbates Spurious
Correlations [98.3066727301239]
この動作を駆動するトレーニングデータの2つの重要な特性を特定します。
モデルの"記憶"に対する帰納的バイアスが,パラメータ化の超過を損なう可能性を示す。
論文 参考訳(メタデータ) (2020-05-09T01:59:13Z) - Contrastive Examples for Addressing the Tyranny of the Majority [83.93825214500131]
我々は,グループメンバーシップを介在する,オリジナルのデータセットと新たなデータポイントからなるバランスの取れたトレーニングデータセットを作成することを提案する。
コントラッシブ・サンプル(英語版)と呼ばれるこれらのデータポイントを学習するための強力なツールとして、現在の生成的敵ネットワークが重要であることを示す。
論文 参考訳(メタデータ) (2020-04-14T14:06:44Z) - Inclusive GAN: Improving Data and Minority Coverage in Generative Models [101.67587566218928]
データカバレッジの1つとしてマイノリティー・インクルージョンの問題を定式化する。
次に、再構成世代と敵対的トレーニングを調和させることにより、データカバレッジを改善することを提案する。
我々は、モデルが確実に含めるべきマイノリティサブグループを明示的に制御できる拡張を開発する。
論文 参考訳(メタデータ) (2020-04-07T13:31:33Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。