論文の概要: Ethical Fairness without Demographics in Human-Centered AI
- arxiv url: http://arxiv.org/abs/2603.13373v1
- Date: Tue, 10 Mar 2026 09:09:07 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-17 16:19:35.132601
- Title: Ethical Fairness without Demographics in Human-Centered AI
- Title(参考訳): 人間中心AIにおけるデモグラフィックのない倫理的フェアネス
- Authors: Shaily Roy, Harshit Sharma, Asif Salekin,
- Abstract要約: 最適化の幾何学を通してアルゴリズム的公正性と倫理的原則を整合させるフレームワークであるFrareを提示する。
また,BHE(Beneficence-Harm Avoidance-Equity)についても紹介する。
- 参考スコア(独自算出の注目度): 2.7310171802144136
- License: http://creativecommons.org/publicdomain/zero/1.0/
- Abstract: Computational models are increasingly embedded in human-centered domains such as healthcare, education, workplace analytics, and digital well-being, where their predictions directly influence individual outcomes and collective welfare. In such contexts, achieving high accuracy alone is insufficient; models must also act ethically and equitably across diverse populations. However, fair AI approaches that rely on demographic attributes are impractical, as such information is often unavailable, privacy-sensitive, or restricted by regulatory frameworks. Moreover, conventional parity-based fairness approaches, while aiming for equity, can inadvertently violate core ethical principles by trading off subgroup performance or stability. To address this challenge, we present Flare (Fisher-guided LAtent-subgroup learning with do-no-harm REgularization), the first demographic-agnostic framework that aligns algorithmic fairness with ethical principles through the geometry of optimization. Flare leverages Fisher Information to regularize curvature, uncovering latent disparities in model behavior without access to demographic or sensitive attributes. By integrating representation, loss, and curvature signals, it identifies hidden performance strata and adaptively refines them through collaborative but do-no-harm optimization, enhancing each subgroup's performance while preserving global stability and ethical balance. We also introduce BHE (Beneficence-Harm Avoidance-Equity), a novel metric suite that operationalizes ethical fairness evaluation beyond statistical parity. Extensive evaluations across diverse physiological (EDA), behavioral (IHS), and clinical (OhioT1DM) datasets show that Flare consistently enhances ethical fairness compared to state-of-the-art baselines.
- Abstract(参考訳): 計算モデルは、医療、教育、職場分析、デジタル幸福といった人間中心の領域に組み込まれており、予測は個人の成果や集団福祉に直接影響を及ぼす。
このような文脈では、高い精度の達成だけでは不十分であり、モデルは様々な集団に対して倫理的かつ公平に行動する必要がある。
しかし、人口統計属性に依存する公正なAIアプローチは現実的ではない。
さらに、従来のパリティに基づく公正なアプローチは、エクイティを目指す一方で、サブグループのパフォーマンスや安定性のトレードオフによって、必然的に中核的な倫理原則に反する可能性がある。
この課題に対処するために、最適化の幾何学を通してアルゴリズム的公正性と倫理的原則を整合させる最初の人口動態に依存しないフレームワークであるFrare(Fisher-guided LAtent-subgroup Learning with do-harm Regularization)を提案する。
FlareはFisher Informationを利用して曲率を正規化し、人口統計やセンシティブな属性にアクセスすることなく、モデルの振る舞いにおける潜在的な格差を明らかにする。
表現、損失、曲率信号を統合することで、隠れた性能層を識別し、協調的だが無害な最適化を通じてそれらを適応的に洗練し、グローバルな安定性と倫理的バランスを維持しながら、各サブグループのパフォーマンスを向上させる。
また,BHE(Beneficence-Harm Avoidance-Equity)についても紹介する。
多様な生理学(EDA)、行動学(IHS)、臨床(OhioT1DM)データセットにわたる広範囲な評価は、フレアは最先端のベースラインと比較して一貫して倫理的公正性を高めることを示している。
関連論文リスト
- A Unifying Human-Centered AI Fairness Framework [2.9385229328767988]
8つの異なる公平度指標をカバーする、統一された人間中心の公正度フレームワークを導入する。
このフレームワークは、単一の公正の概念を特権化するのではなく、利害関係者が複数の公正目標に対して重みを割り当てることを可能にする。
重みを調整することで、異なる公平度指標間の微妙なトレードオフが明らかになる。
論文 参考訳(メタデータ) (2025-12-07T17:52:38Z) - Reliable and Reproducible Demographic Inference for Fairness in Face Analysis [63.46525489354455]
本稿では、従来のエンドツーエンドトレーニングをモジュラートランスファー学習アプローチで置き換える、完全に再現可能なDAIパイプラインを提案する。
このパイプラインは、正確性、公正性、そしてアイデンティティ内整合性によって定義される、新たに導入された堅牢性の概念の3つの次元にわたって監査する。
以上の結果から,提案手法は特に民族性において,強い基準線を上回り,その特性はより困難であることが示唆された。
論文 参考訳(メタデータ) (2025-10-23T12:22:02Z) - Fair Deepfake Detectors Can Generalize [51.21167546843708]
共同設立者(データ分散とモデルキャパシティ)の制御により,公正な介入による一般化が向上することを示す。
この知見を応用して, 逆正当性重み付けとサブグループワイド特徴正規化を併用し, 新たなアライメント・アライメント・アライメント・アライメント・アライメント・アライメント・アライメント・アライメント・インセンティブ・インターベンション・インベンション・インテクション(DAID)を提案する。
DAIDは、いくつかの最先端技術と比較して、公平性と一般化の両方において一貫して優れた性能を達成する
論文 参考訳(メタデータ) (2025-07-03T14:10:02Z) - Toward Fair Federated Learning under Demographic Disparities and Data Imbalance [8.444310568786408]
フェデレートラーニング(Federated Learning, FL)は、機関間のプライバシー保護コラボレーションを可能にする。
フェアネスを意識した正規化とグループ条件オーバサンプリングを組み合わせたフレームワークに依存しないFedIDAを提案する。
FedIDAは、競争力のある予測性能を維持しながら、常に公正性を向上することを示す。
論文 参考訳(メタデータ) (2025-05-14T11:22:54Z) - Conformal uncertainty quantification to evaluate predictive fairness of foundation AI model for skin lesion classes across patient demographics [8.692647930497936]
我々は、コンフォメーション解析を用いて、視覚変換器に基づく基礎モデルの予測不確かさを定量化する。
基礎モデルの特徴埋め込みの堅牢性を評価するために、公正度測定としてどのように使用できるかを示す。
論文 参考訳(メタデータ) (2025-03-31T08:06:00Z) - Fairness-Aware Low-Rank Adaptation Under Demographic Privacy Constraints [4.647881572951815]
事前訓練された基礎モデルはローランド適応(LoRA)を用いて特定のタスクに適応することができる
既存のフェアネスを意識した微調整手法は、機密属性や予測器への直接アクセスに依存している。
分散方式でトレーニング可能なLoRAベースの微調整手法のセットを紹介する。
論文 参考訳(メタデータ) (2025-03-07T18:49:57Z) - Learning for Counterfactual Fairness from Observational Data [62.43249746968616]
公正な機械学習は、人種、性別、年齢などの特定の保護された(感受性のある)属性によって記述されるある種のサブグループに対して、学習モデルのバイアスを取り除くことを目的としている。
カウンターファクトフェアネスを達成するための既存の手法の前提条件は、データに対する因果モデルの事前の人間の知識である。
本研究では,新しいフレームワークCLAIREを提案することにより,因果関係を付与せずに観測データから対実的に公正な予測を行う問題に対処する。
論文 参考訳(メタデータ) (2023-07-17T04:08:29Z) - D-BIAS: A Causality-Based Human-in-the-Loop System for Tackling
Algorithmic Bias [57.87117733071416]
D-BIASは、人間のループ内AIアプローチを具現化し、社会的バイアスを監査し軽減する視覚対話型ツールである。
ユーザは、因果ネットワークにおける不公平な因果関係を識別することにより、グループに対する偏見の存在を検出することができる。
それぞれのインタラクション、例えばバイアスのある因果縁の弱体化/削除は、新しい(偏りのある)データセットをシミュレートするために、新しい方法を用いている。
論文 参考訳(メタデータ) (2022-08-10T03:41:48Z) - Measuring Fairness Under Unawareness of Sensitive Attributes: A
Quantification-Based Approach [131.20444904674494]
センシティブな属性の無意識下でのグループフェアネスを測定する問題に取り組む。
定量化手法は, フェアネスと無意識の問題に対処するのに特に適していることを示す。
論文 参考訳(メタデータ) (2021-09-17T13:45:46Z) - Improving Fairness of AI Systems with Lossless De-biasing [15.039284892391565]
AIシステムのバイアスを緩和して全体的な公正性を高めることが重要な課題となっている。
我々は,不利益グループにおけるデータの不足を対象とする情報損失のない脱バイアス手法を提案する。
論文 参考訳(メタデータ) (2021-05-10T17:38:38Z) - Causal Feature Selection for Algorithmic Fairness [61.767399505764736]
データ管理の統合コンポーネントにおける公平性について検討する。
本稿では,データセットの公平性を保証する特徴のサブコレクションを同定する手法を提案する。
論文 参考訳(メタデータ) (2020-06-10T20:20:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。