論文の概要: Balancing Fairness and Robustness via Partial Invariance
- arxiv url: http://arxiv.org/abs/2112.09346v1
- Date: Fri, 17 Dec 2021 06:41:47 GMT
- ステータス: 処理完了
- システム内更新日: 2021-12-20 23:59:46.911354
- Title: Balancing Fairness and Robustness via Partial Invariance
- Title(参考訳): 部分不変性による公平性とロバスト性のバランス
- Authors: Moulik Choraria, Ibtihal Ferwana, Ankur Mani, Lav R. Varshney
- Abstract要約: 不変リスク最小化(IRM)は、アウト・オブ・ディストリビューション(OOD)問題を解決するための環境セットから不変機能を学ぶことを目的としている。
障害ケースを軽減するために、部分的な不変性フレームワークを議論する。
本研究は, 一定の条件下での公正性とリスクのトレードオフを軽減するため, 部分的不変リスク最小化が可能であることを示す。
- 参考スコア(独自算出の注目度): 17.291131923335918
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The Invariant Risk Minimization (IRM) framework aims to learn invariant
features from a set of environments for solving the out-of-distribution (OOD)
generalization problem. The underlying assumption is that the causal components
of the data generating distributions remain constant across the environments or
alternately, the data "overlaps" across environments to find meaningful
invariant features. Consequently, when the "overlap" assumption does not hold,
the set of truly invariant features may not be sufficient for optimal
prediction performance. Such cases arise naturally in networked settings and
hierarchical data-generating models, wherein the IRM performance becomes
suboptimal. To mitigate this failure case, we argue for a partial invariance
framework. The key idea is to introduce flexibility into the IRM framework by
partitioning the environments based on hierarchical differences, while
enforcing invariance locally within the partitions. We motivate this framework
in classification settings with causal distribution shifts across environments.
Our results show the capability of the partial invariant risk minimization to
alleviate the trade-off between fairness and risk in certain settings.
- Abstract(参考訳): Invariant Risk Minimization (IRM)フレームワークは、アウト・オブ・ディストリビューション(OOD)一般化問題を解決するための環境セットから不変機能を学ぶことを目的としている。
基本的な前提は、データ生成分布の因果成分が環境全体にわたって一定か、あるいは交互に、有意義な不変な特徴を見つけるために環境全体でデータを"オーバーラップ"するというものである。
したがって、「オーバーラップ」仮定が成り立たない場合、真に不変な特徴の集合は最適な予測性能には不十分である。
このようなケースは、ネットワーク化された設定や階層的なデータ生成モデルで自然に発生し、ITM性能が最適以下になる。
この障害を緩和するために、部分的不変性フレームワークを議論する。
鍵となる考え方は、階層的な違いに基づいて環境を分割し、パーティション内での分散を局所的に強制することで、IRMフレームワークに柔軟性を導入することである。
我々はこのフレームワークを環境間の因果分布シフトを伴う分類設定で動機付けている。
本研究は,公平性とリスクのトレードオフを緩和するための部分的不変リスク最小化の能力を示す。
関連論文リスト
- Diagnosing and Rectifying Fake OOD Invariance: A Restructured Causal
Approach [51.012396632595554]
不変表現学習(IRL)は、不変因果的特徴から環境から切り離されたラベルへの予測を促進する。
最近の理論的結果は、IRLによって回復されたいくつかの因果的特徴は、訓練環境ではドメイン不変のふりをするが、目に見えない領域では失敗する。
本研究では,RS-SCMに関する条件付き相互情報に基づく手法を開発し,その効果を巧みに補正する。
論文 参考訳(メタデータ) (2023-12-15T12:58:05Z) - Winning Prize Comes from Losing Tickets: Improve Invariant Learning by
Exploring Variant Parameters for Out-of-Distribution Generalization [76.27711056914168]
Out-of-Distribution (OOD) 一般化は、分散固有の特徴に適合することなく、様々な環境によく適応する堅牢なモデルを学ぶことを目的としている。
LTH(Lottery Ticket hypothesis)に基づく最近の研究は、学習目標を最小化し、タスクに重要なパラメータのいくつかを見つけることでこの問題に対処している。
Invariant Learning (EVIL) における変数探索手法を提案する。
論文 参考訳(メタデータ) (2023-10-25T06:10:57Z) - Mitigating Group Bias in Federated Learning for Heterogeneous Devices [1.181206257787103]
フェデレートラーニング(Federated Learning)は、分散エッジアプリケーションにおけるプライバシ保護モデルトレーニングアプローチとして登場している。
本研究は,プライバシを維持しながら,資源利用のオーバーヘッドを伴わずにグループバイアスを最小限に抑えるグループフェアFLフレームワークを提案する。
論文 参考訳(メタデータ) (2023-09-13T16:53:48Z) - Modeling the Q-Diversity in a Min-max Play Game for Robust Optimization [61.39201891894024]
群分布的ロバスト最適化(群 DRO)は、事前定義された群に対する最悪の損失を最小限にすることができる。
グループDROフレームワークをQ-Diversityを提案して再構築する。
インタラクティブなトレーニングモードによって特徴付けられるQ-Diversityは、アノテーションからグループ識別を緩和し、直接パラメータ化を行う。
論文 参考訳(メタデータ) (2023-05-20T07:02:27Z) - Learning Optimal Features via Partial Invariance [18.552839725370383]
不変リスク最小化(IRM)は、複数の環境から堅牢なモデルを学ぶことを目的とした一般的なフレームワークである。
IRMが予測器を過度に抑制できることを示し、これを補うために、$textitpartial invariance$を介して緩和を提案する。
線形設定と、言語と画像データの両方のタスクにおけるディープニューラルネットワークの両方で実施されたいくつかの実験により、結論の検証が可能になった。
論文 参考訳(メタデータ) (2023-01-28T02:48:14Z) - ZIN: When and How to Learn Invariance by Environment Inference? [24.191152823045385]
環境分割に基づく頑健で不変なモデルを学ぶための不変学習法が提案されている。
この状況下での学習の不変性は、帰納的バイアスや追加情報なしでは基本的に不可能であることを示す。
本稿では,環境分割と不変表現を協調的に学習するフレームワークを提案する。
論文 参考訳(メタデータ) (2022-03-11T10:00:33Z) - Heterogeneous Risk Minimization [25.5458915855661]
分散一般化のための不変学習法は、複数の学習環境を利用して不変関係を見つけることによって提案されている。
現代のデータセットは、明示的なソースラベルなしで複数のソースからのデータをマージすることで組み立てられる。
不均一リスク最小化(HRM: Heterogeneous Risk Minimization)フレームワークを提案し、データと不変関係間の潜在不均質性の共同学習を実現する。
論文 参考訳(メタデータ) (2021-05-09T02:51:36Z) - Robust Reconfigurable Intelligent Surfaces via Invariant Risk and Causal
Representations [55.50218493466906]
本稿では,データ分布の変化に伴うロバスト再構成可能なインテリジェントサーフェス(ris)システム設計の問題について検討する。
不変リスク最小化(IRM)の概念を用いて、複数の環境にまたがる不変因果表現を用いて、予測器が各環境に対して同時に最適となるようにする。
予測器を探すためにニューラルネットワークベースのソリューションを採用し、その性能は経験的リスク最小化に基づく設計に対するシミュレーションによって検証される。
論文 参考訳(メタデータ) (2021-05-04T21:36:31Z) - Environment Inference for Invariant Learning [9.63004099102596]
環境推論を組み込んだドメイン不変学習フレームワークであるEIILを提案する。
EIILは環境ラベルを使わずにCMNISTベンチマークの不変学習法より優れていることを示す。
また、EIILとアルゴリズムフェアネスの接続を確立することにより、公平な予測問題において、EIILは精度とキャリブレーションを改善することができる。
論文 参考訳(メタデータ) (2020-10-14T17:11:46Z) - The Risks of Invariant Risk Minimization [52.7137956951533]
不変リスク最小化(Invariant Risk Minimization)は、データの深い不変性を学ぶという考え方に基づく目標である。
我々は、IRMの目的に基づく分類の最初の分析と、最近提案されたこれらの代替案について、かなり自然で一般的なモデルで分析する。
IRMは、テストデータがトレーニング分布と十分に類似していない限り、破滅的に失敗する可能性がある。
論文 参考訳(メタデータ) (2020-10-12T14:54:32Z) - Learning Invariant Representations and Risks for Semi-supervised Domain
Adaptation [109.73983088432364]
半教師付きドメイン適応(Semi-DA)の設定の下で不変表現とリスクを同時に学習することを目的とした最初の手法を提案する。
共同で textbfLearning textbfInvariant textbfRepresentations と textbfRisks の LIRR アルゴリズムを導入する。
論文 参考訳(メタデータ) (2020-10-09T15:42:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。