論文の概要: Fair Domain Generalization: An Information-Theoretic View
- arxiv url: http://arxiv.org/abs/2507.05823v1
- Date: Tue, 08 Jul 2025 09:43:40 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-09 16:34:37.841507
- Title: Fair Domain Generalization: An Information-Theoretic View
- Title(参考訳): Fair Domain Generalization: 情報理論の視点
- Authors: Tangzheng Lian, Guanyu Hu, Dimitrios Kollias, Xinyu Yang, Oya Celiktutan,
- Abstract要約: ドメイン一般化(DG)とアルゴリズムフェアネスは、機械学習における2つの重要な課題である。
未確認領域における予測リスクと公平性違反の最小化を目的としたフェアドメイン一般化(FairDG)の課題について検討する。
- 参考スコア(独自算出の注目度): 23.91001084897579
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Domain generalization (DG) and algorithmic fairness are two critical challenges in machine learning. However, most DG methods focus only on minimizing expected risk in the unseen target domain without considering algorithmic fairness. Conversely, fairness methods typically do not account for domain shifts, so the fairness achieved during training may not generalize to unseen test domains. In this work, we bridge these gaps by studying the problem of Fair Domain Generalization (FairDG), which aims to minimize both expected risk and fairness violations in unseen target domains. We derive novel mutual information-based upper bounds for expected risk and fairness violations in multi-class classification tasks with multi-group sensitive attributes. These bounds provide key insights for algorithm design from an information-theoretic perspective. Guided by these insights, we introduce PAFDG (Pareto-Optimal Fairness for Domain Generalization), a practical framework that solves the FairDG problem and models the utility-fairness trade-off through Pareto optimization. Experiments on real-world vision and language datasets show that PAFDG achieves superior utility-fairness trade-offs compared to existing methods.
- Abstract(参考訳): ドメイン一般化(DG)とアルゴリズムフェアネスは、機械学習における2つの重要な課題である。
しかし、ほとんどのDG手法は、アルゴリズムの公正性を考慮せずに、目に見えないターゲット領域における期待されるリスクを最小化することのみに焦点を当てている。
逆に、フェアネス法は一般にドメインシフトを考慮しないので、トレーニング中に達成されたフェアネスは、目に見えないテストドメインに一般化できない。
本研究では,このギャップをFairDG(Fair Domain Generalization)の問題によって埋める。
我々は,多群感性属性を持つ多クラス分類タスクにおいて,期待されるリスクと公平性に対する新たな相互情報に基づく上限を導出する。
これらの境界は、情報理論の観点からアルゴリズム設計に重要な洞察を与える。
PAFDG(Pareto-Optimal Fairness for Domain Generalization)は、FairDGの問題を解決するための実践的なフレームワークであり、Paretoの最適化によるユーティリティフェアネスのトレードオフをモデル化する。
実世界のビジョンと言語データセットの実験により、PAFDGは既存の手法に比べて実用性と公正性のトレードオフが優れていることが示された。
関連論文リスト
- Generative Classifier for Domain Generalization [84.92088101715116]
ドメインの一般化は、分散シフトに対するコンピュータビジョンモデルの一般化性を目的としている。
生成駆動型ドメイン一般化(GCDG)を提案する。
GCDGは3つの重要なモジュールから構成される: 異種性学習(HLC)、純粋相関(SCB)、横成分バランス(DCB)。
論文 参考訳(メタデータ) (2025-04-03T04:38:33Z) - FEED: Fairness-Enhanced Meta-Learning for Domain Generalization [13.757379847454372]
モデルフェアネスを認識しながら配布外データに一般化することは、メタラーニングにおいて重要かつ困難な問題である。
本稿では,ドメインの一般化能力を大幅に向上させるフェアネスを考慮したメタラーニング手法を提案する。
論文 参考訳(メタデータ) (2024-11-02T17:34:33Z) - MADG: Margin-based Adversarial Learning for Domain Generalization [25.45950080930517]
そこで本稿では,差分損失に基づく離散性尺度に基づく新しい逆学習DGアルゴリズムMADGを提案する。
提案したMADGモデルは,すべてのソースドメインにまたがるドメイン不変の特徴を学習し,敵対的トレーニングを用いて,未知のターゲットドメインによく適応する。
我々は、人気のある実世界のDGデータセット上でMADGモデルを広範囲に実験した。
論文 参考訳(メタデータ) (2023-11-14T19:53:09Z) - Consistency Regularization for Domain Generalization with Logit Attribution Matching [14.98337914353095]
ドメイン一般化(Domain Generalization, DG)とは、ドメインシフトの下でよく一般化されるトレーニングモデルである。
トレーニングドメインには、同じ意味情報を共有するサンプルのペアの集合が与えられています。
整合正則化がDGに導出可能であることを示す理論を提案し、ロジットマッチングと呼ばれる新しいCR法を提案する。
論文 参考訳(メタデータ) (2023-05-13T10:21:53Z) - Probable Domain Generalization via Quantile Risk Minimization [90.15831047587302]
ドメインの一般化は、目に見えないテスト分布でうまく機能する予測子を求める。
我々はDGのための新しい確率的フレームワークを提案し、高い確率でよく動作する予測器を学習することを目指している。
論文 参考訳(メタデータ) (2022-07-20T14:41:09Z) - On Certifying and Improving Generalization to Unseen Domains [87.00662852876177]
ドメインの一般化は、テスト時に遭遇した見知らぬドメインのパフォーマンスが高いモデルを学ぶことを目的としています。
いくつかのベンチマークデータセットを使用して、DGアルゴリズムを包括的に評価することは困難である。
我々は,任意のDG手法の最悪の性能を効率的に証明できる普遍的な認証フレームワークを提案する。
論文 参考訳(メタデータ) (2022-06-24T16:29:43Z) - Localized Adversarial Domain Generalization [83.4195658745378]
対数領域の一般化は、領域の一般化に対する一般的なアプローチである。
空間コンパクト性維持(LADG)を用いた局所対向領域の一般化を提案する。
我々はWilds DGベンチマークで包括的な実験を行い、我々のアプローチを検証する。
論文 参考訳(メタデータ) (2022-05-09T08:30:31Z) - Reappraising Domain Generalization in Neural Networks [8.06370138649329]
機械学習アルゴリズムのドメイン一般化(DG)は、複数のトレーニング分布からドメインに依存しない仮説を学習する能力として定義される。
経験的リスク最小化(ERM)ベースラインは,既存のDG手法を一貫して上回っていることがわかった。
そこで我々は,各クラスに対してランダムにドメインを選択して,それをテスト用として保持する,クラスワイズDGの定式化を提案する。
論文 参考訳(メタデータ) (2021-10-15T10:06:40Z) - Towards Fair Knowledge Transfer for Imbalanced Domain Adaptation [61.317911756566126]
本研究では,不均衡なドメイン間学習における公平性問題に対処するTowards Fair Knowledge Transferフレームワークを提案する。
具体的には、新規なクロスドメインミックスアップ生成を利用して、ターゲット情報でマイノリティソースセットを増強し、公正性を高める。
本モデルでは,2つのベンチマークで全体の精度を20%以上向上させる。
論文 参考訳(メタデータ) (2020-10-23T06:29:09Z) - Learning Invariant Representations and Risks for Semi-supervised Domain
Adaptation [109.73983088432364]
半教師付きドメイン適応(Semi-DA)の設定の下で不変表現とリスクを同時に学習することを目的とした最初の手法を提案する。
共同で textbfLearning textbfInvariant textbfRepresentations と textbfRisks の LIRR アルゴリズムを導入する。
論文 参考訳(メタデータ) (2020-10-09T15:42:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。