論文の概要: Distributionally Robust Survival Analysis: A Novel Fairness Loss Without
Demographics
- arxiv url: http://arxiv.org/abs/2211.10508v1
- Date: Fri, 18 Nov 2022 20:54:34 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-22 18:27:24.701132
- Title: Distributionally Robust Survival Analysis: A Novel Fairness Loss Without
Demographics
- Title(参考訳): 分散ロバストな生存分析:デモグラフィックのない新たなフェアネス損失
- Authors: Shu Hu, George H. Chen
- Abstract要約: 本稿では,全てのサブ集団における最悪のエラーを最小限に抑える,生存率分析モデルの訓練方法を提案する。
このアプローチでは、センシティブな扱いをする人口統計情報を知らないトレーニング損失関数を使用する。
- 参考スコア(独自算出の注目度): 17.945141391585487
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We propose a general approach for training survival analysis models that
minimizes a worst-case error across all subpopulations that are large enough
(occurring with at least a user-specified minimum probability). This approach
uses a training loss function that does not know any demographic information to
treat as sensitive. Despite this, we demonstrate that our proposed approach
often scores better on recently established fairness metrics (without a
significant drop in prediction accuracy) compared to various baselines,
including ones which directly use sensitive demographic information in their
training loss. Our code is available at: https://github.com/discovershu/DRO_COX
- Abstract(参考訳): そこで本研究では,全亜集団(少なくとも利用者が特定した最小確率)において最悪の場合の誤差を最小限に抑えるサバイバル分析モデルの訓練手法を提案する。
このアプローチでは、センシティブな扱いをする人口統計情報を知らないトレーニング損失関数を使用する。
それにもかかわらず,提案手法は,最近確立された公正度測定値(予測精度の大幅な低下を伴わない)を,トレーニング損失にセンシティブな人口統計情報を直接利用するものなど,様々なベースラインに比較して評価することが多い。
私たちのコードは、https://github.com/Discovershu/DRO_COXで利用可能です。
関連論文リスト
- Alpha and Prejudice: Improving $α$-sized Worst-case Fairness via Intrinsic Reweighting [34.954141077528334]
既成人口集団との最悪のフェアネスは、最悪の集団のモデルユーティリティを最大化することで、同等性を達成する。
近年の進歩は、最小分割比の低い境界を導入することで、この学習問題を再構築している。
論文 参考訳(メタデータ) (2024-11-05T13:04:05Z) - Towards Harmless Rawlsian Fairness Regardless of Demographic Prior [57.30787578956235]
トレーニングセットに事前の人口統計が提供されない場合に,有効性を損なうことなく公平性を達成する可能性を探る。
本稿では,経験的損失の最適セット内でのトレーニング損失の分散を最小限に抑えるため,VFairという簡単な手法を提案する。
論文 参考訳(メタデータ) (2024-11-04T12:40:34Z) - Fairness in Survival Analysis with Distributionally Robust Optimization [13.159777131162965]
本稿では,全てのサブ集団における最悪のエラーを最小限に抑えるため,生存分析モデルにおける公平性向上のための一般的なアプローチを提案する。
このアプローチは、既存の生存分析モデルの多くを、公平性を同時に促進するモデルに変換するために使用することができる。
論文 参考訳(メタデータ) (2024-08-31T15:03:20Z) - Rejection via Learning Density Ratios [50.91522897152437]
拒絶による分類は、モデルを予測しないことを許容する学習パラダイムとして現れます。
そこで我々は,事前学習したモデルの性能を最大化する理想的なデータ分布を求める。
私たちのフレームワークは、クリーンでノイズの多いデータセットで実証的にテストされます。
論文 参考訳(メタデータ) (2024-05-29T01:32:17Z) - Fairness Without Harm: An Influence-Guided Active Sampling Approach [32.173195437797766]
我々は、モデルの精度に害を与えることなく、グループフェアネスの格差を軽減するモデルを訓練することを目指している。
公正なアクティブな学習アプローチのような現在のデータ取得方法は、通常、アノテートセンシティブな属性を必要とする。
トレーニンググループアノテーションに依存しない抽出可能なアクティブデータサンプリングアルゴリズムを提案する。
論文 参考訳(メタデータ) (2024-02-20T07:57:38Z) - Canary in a Coalmine: Better Membership Inference with Ensembled
Adversarial Queries [53.222218035435006]
私たちは、差別的で多様なクエリを最適化するために、逆ツールを使用します。
我々の改善は既存の方法よりもはるかに正確な会員推定を実現している。
論文 参考訳(メタデータ) (2022-10-19T17:46:50Z) - RelaxLoss: Defending Membership Inference Attacks without Losing Utility [68.48117818874155]
より達成可能な学習目標を持つ緩和された損失に基づく新しい学習フレームワークを提案する。
RelaxLossは、簡単な実装と無視可能なオーバーヘッドのメリットを加えた任意の分類モデルに適用できる。
当社のアプローチはMIAに対するレジリエンスの観点から,常に最先端の防御機構より優れています。
論文 参考訳(メタデータ) (2022-07-12T19:34:47Z) - KL Guided Domain Adaptation [88.19298405363452]
ドメイン適応は重要な問題であり、現実世界のアプリケーションにしばしば必要である。
ドメイン適応文学における一般的なアプローチは、ソースとターゲットドメインに同じ分布を持つ入力の表現を学ぶことである。
確率的表現ネットワークにより、KL項はミニバッチサンプルにより効率的に推定できることを示す。
論文 参考訳(メタデータ) (2021-06-14T22:24:23Z) - Learning Diverse Representations for Fast Adaptation to Distribution
Shift [78.83747601814669]
本稿では,複数のモデルを学習する手法を提案する。
分散シフトへの迅速な適応を促進するフレームワークの能力を実証する。
論文 参考訳(メタデータ) (2020-06-12T12:23:50Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。