論文の概要: Addressing Polarization and Unfairness in Performative Prediction
- arxiv url: http://arxiv.org/abs/2406.16756v2
- Date: Mon, 10 Nov 2025 14:10:10 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-11 21:18:44.254778
- Title: Addressing Polarization and Unfairness in Performative Prediction
- Title(参考訳): 変形予測におけるポラリゼーションと不公平の対応
- Authors: Kun Jin, Tian Xie, Yang Liu, Xueru Zhang,
- Abstract要約: 性能予測解は, 厳密な分極と予測性能の相違をもたらす可能性があり, 従来の公平な介入は, モデル依存の分布シフトでしばしば失敗することを示した。
本稿では, 理論解析と実験結果から, 安定性と公正性の両方を確実に保証する新しい公正性機構を導入する。
- 参考スコア(独自算出の注目度): 19.686329907611878
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In many real-world applications of machine learning such as recommendations, hiring, and lending, deployed models influence the data they are trained on, leading to feedback loops between predictions and data distribution. The performative prediction (PP) framework captures this phenomenon by modeling the data distribution as a function of the deployed model. While prior work has focused on finding performative stable (PS) solutions for robustness, their societal impacts, particularly regarding fairness, remain underexplored. We show that PS solutions can lead to severe polarization and prediction performance disparities, and that conventional fairness interventions in previous works often fail under model-dependent distribution shifts due to failing the PS criteria. To address these challenges in PP, we introduce novel fairness mechanisms that provably ensure both stability and fairness, validated by theoretical analysis and empirical results.
- Abstract(参考訳): 推薦、採用、貸与といった機械学習の現実の多くの応用において、デプロイされたモデルはトレーニングされたデータに影響を与え、予測とデータ分散の間のフィードバックループにつながる。
パフォーマンス予測(PP)フレームワークは、データ分散をデプロイされたモデルの関数としてモデル化することで、この現象を捉えます。
これまでの研究は、堅牢性のためのパフォーマンス安定(PS)ソリューションの発見に重点を置いていたが、社会的影響、特に公正性については、未解明のままである。
その結果,PS の解法は,PS の偏極性や性能差の予測に寄与し,従来のフェアネス介入はPS の基準を満たさないため,モデル依存分布シフトの下では失敗することが多いことがわかった。
PPにおけるこれらの課題に対処するために,理論解析と経験的結果によって検証された安定性と公正性の両方を確実に保証する,新しい公正性機構を導入する。
関連論文リスト
- A Distributionally-Robust Framework for Nuisance in Causal Effect Estimation [1.3053649021965603]
因果推論では、治療群と対照群の間のバランスの取れた分布のモデルを評価する必要がある。
最も一般的な統計手法は、逆確率重み付け(IPW)によるこの分布シフトに対処するものである。
誤差一般化を分解してこれらの問題 - 正当性あいまいさと統計的不安定さ - を分離し, 対向損失関数を通して対処する。
論文 参考訳(メタデータ) (2025-05-23T10:34:28Z) - Causally Fair Node Classification on Non-IID Graph Data [9.363036392218435]
本稿では,フェアネスを考慮したMLアルゴリズムにおける課題について述べる。
非IID、グラフベースの設定の見落としている領域に取り組みます。
因果推論のためのメッセージパッシング変分オートエンコーダを開発した。
論文 参考訳(メタデータ) (2025-05-03T02:05:51Z) - Achieving Group Fairness through Independence in Predictive Process Monitoring [0.0]
予測プロセス監視は、特定のケースの結果を予測するなど、進行中のプロセス実行の将来の状態を予測することに焦点を当てる。
近年,この領域における機械学習モデルの適用は科学的な注目を集めている。
この研究は、独立性の調査による予測プロセス監視におけるグループフェアネス、すなわち、センシティブなグループメンバーシップによる予測が影響を受けないことを保証する。
論文 参考訳(メタデータ) (2024-12-06T10:10:47Z) - Distributionally Robust Performative Prediction [25.580721293862467]
我々は、分布的に頑健な演奏予測の新しい枠組みを導入し、分布的に頑健な演奏最適化(O)と呼ばれる新しいソリューション概念を研究する。
我々はDRPOが実数と異なるときの真のPOに対する頑健な近似として証明可能な保証を示す。
結果は,分布マップがミクロレベルでもマクロレベルでも誤特定されている場合,DRPOは従来のPOアプローチよりも潜在的に有利であることを示した。
論文 参考訳(メタデータ) (2024-12-05T17:05:49Z) - Self-Healing Machine Learning: A Framework for Autonomous Adaptation in Real-World Environments [50.310636905746975]
実世界の機械学習システムは、基礎となるデータ生成プロセスの分散シフトによって、モデルの性能劣化に遭遇することが多い。
概念のドリフト適応のような既存のシフトへのアプローチは、その理性に依存しない性質によって制限される。
我々はこれらの制限を克服するために自己修復機械学習(SHML)を提案する。
論文 参考訳(メタデータ) (2024-10-31T20:05:51Z) - On conditional diffusion models for PDE simulations [53.01911265639582]
スパース観測の予測と同化のためのスコアベース拡散モデルについて検討した。
本稿では,予測性能を大幅に向上させる自動回帰サンプリング手法を提案する。
また,条件付きスコアベースモデルに対する新たなトレーニング戦略を提案する。
論文 参考訳(メタデータ) (2024-10-21T18:31:04Z) - Fair CoVariance Neural Networks [34.68621550644667]
本稿では,Fair CoVariance Neural Networks (FVNN) を提案する。
我々は,FVNNが類似のPCAアプローチよりも本質的に公平であることを証明する。
論文 参考訳(メタデータ) (2024-09-13T06:24:18Z) - Editable Fairness: Fine-Grained Bias Mitigation in Language Models [52.66450426729818]
個々人の社会的偏見をきめ細かなキャリブレーションを可能にする新しいデバイアス・アプローチであるFairness Stamp(FAST)を提案する。
FASTは最先端のベースラインを超え、デバイアス性能が優れている。
これは、大きな言語モデルにおける公平性を達成するためのきめ細かいデバイアス戦略の可能性を強調している。
論文 参考訳(メタデータ) (2024-08-07T17:14:58Z) - Fair Multivariate Adaptive Regression Splines for Ensuring Equity and
Transparency [1.124958340749622]
学習過程に公平度を組み込んだMARSに基づく公正度予測モデルを提案する。
MARSは、特徴選択を行い、非線形関係を扱い、解釈可能な決定ルールを生成し、変数の最適分割基準を導出する非パラメトリック回帰モデルである。
実世界のデータにfairMARSモデルを適用し、精度とエクイティの観点からその有効性を実証する。
論文 参考訳(メタデータ) (2024-02-23T19:02:24Z) - Source-Free Unsupervised Domain Adaptation with Hypothesis Consolidation
of Prediction Rationale [53.152460508207184]
Source-Free Unsupervised Domain Adaptation (SFUDA)は、モデルがターゲットのドメインラベルやソースドメインデータにアクセスせずに新しいドメインに適応する必要がある、という課題である。
本稿では,各サンプルについて複数の予測仮説を考察し,各仮説の背景にある理論的根拠について考察する。
最適性能を達成するために,モデル事前適応,仮説統合,半教師付き学習という3段階の適応プロセスを提案する。
論文 参考訳(メタデータ) (2024-02-02T05:53:22Z) - Performative Time-Series Forecasting [64.03865043422597]
我々は,機械学習の観点から,パフォーマンス時系列予測(PeTS)を定式化する。
本稿では,予測分布シフトに対する遅延応答の概念を活用する新しい手法であるFeature Performative-Shifting(FPS)を提案する。
新型コロナウイルスの複数の時系列モデルと交通予報タスクを用いた総合的な実験を行った。
論文 参考訳(メタデータ) (2023-10-09T18:34:29Z) - Dr. FERMI: A Stochastic Distributionally Robust Fair Empirical Risk
Minimization Framework [12.734559823650887]
分散シフトが存在する場合、公正な機械学習モデルはテストデータに対して不公平に振る舞うことがある。
既存のアルゴリズムはデータへの完全なアクセスを必要とし、小さなバッチを使用する場合には使用できない。
本稿では,因果グラフの知識を必要としない収束保証付き分布安定度フレームワークを提案する。
論文 参考訳(メタデータ) (2023-09-20T23:25:28Z) - Causal Fair Machine Learning via Rank-Preserving Interventional Distributions [0.5062312533373299]
我々は、個人が架空の、規範的に望まれる(FiND)世界で等しければ、規範的に等しくなると定義する。
本研究では,それが保持する特定のFiND世界を定義するために,ランク保存的介入分布を提案する。
我々のワープアプローチは、最も差別された個人を効果的に識別し、不公平を緩和することを示します。
論文 参考訳(メタデータ) (2023-07-24T13:46:50Z) - Causality-oriented robustness: exploiting general noise interventions [4.64479351797195]
本稿では因果性指向のロバスト性に着目し,不変勾配(DRIG)を用いた分布ロバスト性を提案する。
DRIGはトレーニングデータにおける一般的なノイズ介入を利用して、目に見えない介入に対する堅牢な予測を行う。
我々のフレームワークには特別なケースとしてアンカー回帰が含まれており、より多様な摂動から保護される予測モデルが得られることを示す。
論文 参考訳(メタデータ) (2023-07-18T16:22:50Z) - Fine-Tuning Language Models with Advantage-Induced Policy Alignment [80.96507425217472]
大規模言語モデルと人間の嗜好を整合させる新しいアルゴリズムを提案する。
言語タスクにおいてPPOを常に上回り、大きなマージンを持つことを示す。
また,損失関数の設計を支援する理論的正当性も提供する。
論文 参考訳(メタデータ) (2023-06-04T01:59:40Z) - Federated Conformal Predictors for Distributed Uncertainty
Quantification [83.50609351513886]
コンフォーマル予測は、機械学習において厳密な不確実性定量化を提供するための一般的なパラダイムとして現れつつある。
本稿では,共形予測を連邦学習環境に拡張する。
本稿では、FL設定に適した部分交換可能性の弱い概念を提案し、それをフェデレート・コンフォーマル予測フレームワークの開発に利用する。
論文 参考訳(メタデータ) (2023-05-27T19:57:27Z) - Causal Fairness Analysis [68.12191782657437]
意思決定設定における公平性の問題を理解し、モデル化し、潜在的に解決するためのフレームワークを導入します。
我々のアプローチの主な洞察は、観測データに存在する格差の定量化と、基礎となる、しばしば観測されていない、因果的なメカニズムの収集を結びつけることである。
本研究は,文献中の異なる基準間の関係を整理し,説明するための最初の体系的試みであるフェアネスマップにおいて,本研究の成果を左右するものである。
論文 参考訳(メタデータ) (2022-07-23T01:06:34Z) - Domain Adaptation meets Individual Fairness. And they get along [48.95808607591299]
アルゴリズムフェアネスの介入は、機械学習モデルが分散シフトを克服するのに役立つことを示す。
特に,個人フェアネス(IF)の適切な概念を強制することで,MLモデルの分布外精度が向上することを示す。
論文 参考訳(メタデータ) (2022-05-01T16:19:55Z) - Distribution Preserving Multiple Hypotheses Prediction for Uncertainty
Modeling [0.0]
本稿では,複数の仮説予測手法を保存するための代替的損失を提案する。
実験により,本手法は,合成および実世界の動き予測データセット上でより代表的な仮説を導出することを示す。
提案手法の出力は, サンプリングに基づくモンテカルロ法で直接利用することができる。
論文 参考訳(メタデータ) (2021-10-06T15:36:17Z) - Predicting with Confidence on Unseen Distributions [90.68414180153897]
ドメイン適応と予測不確実性文学を結びつけて、挑戦的な未知分布のモデル精度を予測する。
分類器の予測における信頼度(DoC)の差は,様々な変化に対して,分類器の性能変化を推定することに成功した。
具体的には, 合成分布と自然分布の区別について検討し, その単純さにもかかわらず, DoCは分布差の定量化に優れることを示した。
論文 参考訳(メタデータ) (2021-07-07T15:50:18Z) - Accurate and Robust Feature Importance Estimation under Distribution
Shifts [49.58991359544005]
PRoFILEは、新しい特徴重要度推定法である。
忠実さと頑健さの両面で、最先端のアプローチよりも大幅に改善されていることを示す。
論文 参考訳(メタデータ) (2020-09-30T05:29:01Z) - Unlabelled Data Improves Bayesian Uncertainty Calibration under
Covariate Shift [100.52588638477862]
後続正則化に基づく近似ベイズ推定法を開発した。
前立腺癌の予後モデルを世界規模で導入する上で,本手法の有用性を実証する。
論文 参考訳(メタデータ) (2020-06-26T13:50:19Z) - GenDICE: Generalized Offline Estimation of Stationary Values [108.17309783125398]
重要なアプリケーションでは,効果的な推定が依然として可能であることを示す。
我々のアプローチは、定常分布と経験分布の差を補正する比率を推定することに基づいている。
結果として得られるアルゴリズム、GenDICEは単純で効果的である。
論文 参考訳(メタデータ) (2020-02-21T00:27:52Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。