論文の概要: Fair CCA for Fair Representation Learning: An ADNI Study
- arxiv url: http://arxiv.org/abs/2507.09382v1
- Date: Sat, 12 Jul 2025 19:36:10 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-15 18:48:23.062006
- Title: Fair CCA for Fair Representation Learning: An ADNI Study
- Title(参考訳): 公正表現学習のための公正CCA:ADNI研究
- Authors: Bojian Hou, Zhanliang Wang, Zhuoping Zhou, Boning Tong, Zexuan Wang, Jingxuan Bao, Duy Duong-Tran, Qi Long, Li Shen,
- Abstract要約: フェア表現学習のための新しいフェアカノニカル相関解析(CCA)手法を提案する。
我々はアルツハイマー病神経画像イニシアチブ(ADNI)の合成データと実世界のデータについて検証する。
我々の研究は、偏見のない分析が不可欠である神経画像研究において、公正な機械学習を可能にする。
- 参考スコア(独自算出の注目度): 9.49522932877178
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Canonical correlation analysis (CCA) is a technique for finding correlations between different data modalities and learning low-dimensional representations. As fairness becomes crucial in machine learning, fair CCA has gained attention. However, previous approaches often overlook the impact on downstream classification tasks, limiting applicability. We propose a novel fair CCA method for fair representation learning, ensuring the projected features are independent of sensitive attributes, thus enhancing fairness without compromising accuracy. We validate our method on synthetic data and real-world data from the Alzheimer's Disease Neuroimaging Initiative (ADNI), demonstrating its ability to maintain high correlation analysis performance while improving fairness in classification tasks. Our work enables fair machine learning in neuroimaging studies where unbiased analysis is essential.
- Abstract(参考訳): 正準相関解析(Canonical correlation analysis, CCA)は、異なるデータモダリティ間の相関を見つけ、低次元表現を学習する手法である。
機械学習において公平性が重要になるにつれて、公正なCCAが注目を集めている。
しかし、従来のアプローチでは、下流の分類タスクへの影響を見落とし、適用性を制限することが多かった。
フェア表現学習のための新しいフェアCCA手法を提案し、予測された特徴がセンシティブな属性に依存しないことを保証し、精度を損なうことなくフェアネスを向上させる。
我々は,アルツハイマー病神経画像イニシアチブ(ADNI)の合成データと実世界のデータについて検証し,高い相関解析性能を維持しつつ,分類タスクの公平性を向上する能力を示した。
我々の研究は、偏見のない分析が不可欠である神経画像研究において、公正な機械学習を可能にする。
関連論文リスト
- GFLC: Graph-based Fairness-aware Label Correction for Fair Classification [0.03683202928838613]
グラフベースのFairness-Aware Label Correction (GFLC) は、データセットの人口密度を保ちながらラベルノイズを補正する効率的な方法である。
提案手法は, 予測信頼度測定, リッチフロー最適化グラフによるグラフベース正規化, 人口統計学的パーティインセンティブの3つの重要な要素を組み合わせる。
論文 参考訳(メタデータ) (2025-06-18T16:51:26Z) - Fair Sufficient Representation Learning [2.308168896770315]
本稿では,効率と公平性のバランスをとるフェア・サフィシエント・表現学習(FSRL)手法を提案する。
FSRLは、十分な表現を学習する目的関数と、公平性を保証する目的関数の凸結合に基づいている。
提案手法は,表現レベルでの公平性と満足度を管理し,公正表現学習の新たな視点を提供する。
論文 参考訳(メタデータ) (2025-03-29T10:37:49Z) - Fairness meets Cross-Domain Learning: a new perspective on Models and
Metrics [80.07271410743806]
クロスドメイン学習(CD)とモデルフェアネスの関係について検討する。
いくつかの人口集団にまたがる顔画像と医療画像のベンチマークと、分類とローカライゼーションタスクについて紹介する。
本研究は,3つの最先端フェアネスアルゴリズムとともに,14のCDアプローチをカバーし,前者が後者に勝ることを示す。
論文 参考訳(メタデータ) (2023-03-25T09:34:05Z) - Practical Approaches for Fair Learning with Multitype and Multivariate
Sensitive Attributes [70.6326967720747]
現実世界に展開された機械学習アルゴリズムが不公平さや意図しない社会的結果をもたらすことはないことを保証することが重要である。
本稿では,カーネルHilbert Spacesの相互共分散演算子上に構築されたフェアネス尺度であるFairCOCCOを紹介する。
実世界のデータセットにおける予測能力と公正性のバランスをとる上で、最先端技術に対する一貫した改善を実証的に示す。
論文 参考訳(メタデータ) (2022-11-11T11:28:46Z) - Detecting Shortcut Learning for Fair Medical AI using Shortcut Testing [62.9062883851246]
機械学習は医療の改善に大いに貢献するが、その利用が健康格差を広めたり増幅したりしないことを確実にすることは重要である。
アルゴリズムの不公平性の潜在的な要因の1つ、ショートカット学習は、トレーニングデータにおける不適切な相関に基づいてMLモデルが予測した時に発生する。
マルチタスク学習を用いて,臨床MLシステムの公平性評価の一環として,ショートカット学習の評価と緩和を行う手法を提案する。
論文 参考訳(メタデータ) (2022-07-21T09:35:38Z) - You Can Still Achieve Fairness Without Sensitive Attributes: Exploring
Biases in Non-Sensitive Features [29.94644351343916]
本稿では,これらの特徴を同時利用して正確な予測とモデルの正則化を行う新しいフレームワークを提案する。
実世界のデータセットにおける実験結果は,提案モデルの有効性を示す。
論文 参考訳(メタデータ) (2021-04-29T17:52:11Z) - Can Active Learning Preemptively Mitigate Fairness Issues? [66.84854430781097]
データセットバイアスは、機械学習における不公平な原因の1つです。
不確実性に基づくALで訓練されたモデルが保護クラスの決定において公平であるかどうかを検討する。
また,勾配反転(GRAD)やBALDなどのアルゴリズム的公正性手法の相互作用についても検討する。
論文 参考訳(メタデータ) (2021-04-14T14:20:22Z) - Through the Data Management Lens: Experimental Analysis and Evaluation
of Fair Classification [75.49600684537117]
データ管理研究は、データとアルゴリズムの公平性に関連するトピックに対する存在感と関心が高まっている。
我々は,その正しさ,公平性,効率性,スケーラビリティ,安定性よりも,13の公正な分類アプローチと追加の変種を幅広く分析している。
我々の分析は、異なるメトリクスとハイレベルなアプローチ特性がパフォーマンスの異なる側面に与える影響に関する新しい洞察を強調します。
論文 参考訳(メタデータ) (2021-01-18T22:55:40Z) - FAIR: Fair Adversarial Instance Re-weighting [0.7829352305480285]
本研究では,公正な予測を確実にするインスタンス重み付け関数の学習に敵対的トレーニングを利用するFair Adrial Instance Re-weighting(FAIR)手法を提案する。
我々の知る限りでは、これは、個々のインスタンスの公平性に関する解釈可能な情報を提供する重み付け関数によって、再重み付けと逆方向のアプローチをマージする最初のモデルである。
論文 参考訳(メタデータ) (2020-11-15T10:48:56Z) - Causal Feature Selection for Algorithmic Fairness [61.767399505764736]
データ管理の統合コンポーネントにおける公平性について検討する。
本稿では,データセットの公平性を保証する特徴のサブコレクションを同定する手法を提案する。
論文 参考訳(メタデータ) (2020-06-10T20:20:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。