論文の概要: Fairness-Aware Insurance Pricing: A Multi-Objective Optimization Approach
- arxiv url: http://arxiv.org/abs/2512.24747v1
- Date: Wed, 31 Dec 2025 09:42:03 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-01 23:27:28.6175
- Title: Fairness-Aware Insurance Pricing: A Multi-Objective Optimization Approach
- Title(参考訳): 公正な保険価格:多目的最適化アプローチ
- Authors: Tim J. Boonen, Xinyue Fan, Zixiao Quan,
- Abstract要約: 機械学習は保険価格の予測精度を向上させるが、異なる差別措置間で競合する公正基準の間のトレードオフを悪化させる。
非支配的ソーティング遺伝的アルゴリズムII(NSGA-II)を用いて、4つの基準すべてを共同で最適化する新しい多目的最適化フレームワークを提案する。
以上の結果から,XGBoostはGLMの精度は向上するが,公平性は向上し,オルソゴンモデルはグループフェアネスに優れ,合成制御は個人的および非現実的フェアネスに導かれることがわかった。
- 参考スコア(独自算出の注目度): 1.529342790344802
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Machine learning improves predictive accuracy in insurance pricing but exacerbates trade-offs between competing fairness criteria across different discrimination measures, challenging regulators and insurers to reconcile profitability with equitable outcomes. While existing fairness-aware models offer partial solutions under GLM and XGBoost estimation methods, they remain constrained by single-objective optimization, failing to holistically navigate a conflicting landscape of accuracy, group fairness, individual fairness, and counterfactual fairness. To address this, we propose a novel multi-objective optimization framework that jointly optimizes all four criteria via the Non-dominated Sorting Genetic Algorithm II (NSGA-II), generating a diverse Pareto front of trade-off solutions. We use a specific selection mechanism to extract a premium on this front. Our results show that XGBoost outperforms GLM in accuracy but amplifies fairness disparities; the Orthogonal model excels in group fairness, while Synthetic Control leads in individual and counterfactual fairness. Our method consistently achieves a balanced compromise, outperforming single-model approaches.
- Abstract(参考訳): 機械学習は保険価格の予測精度を向上させるが、異なる差別対策、規制当局や保険会社が利益率を公平な結果と整合させるために競合する公正性基準の間のトレードオフを悪化させる。
既存のフェアネス対応モデルは、GLMおよびXGBoost推定法の下で部分解を提供するが、それらは単目的最適化に制約されるままであり、正確性、グループフェアネス、個人フェアネス、および対実フェアネスの相反する風景を均等にナビゲートすることができない。
そこで本稿では,Non-dominated Sorting Genetic Algorithm II (NSGA-II) を通じて4つの基準を共同で最適化する多目的最適化フレームワークを提案する。
この面では、特定の選択メカニズムを使用してプレミアムを抽出します。
以上の結果から,XGBoostはGLMの精度は向上するが,公平性は向上し,オルソゴンモデルはグループフェアネスに優れ,合成制御は個人的および非現実的フェアネスに導かれることがわかった。
我々の手法はバランスの取れた妥協を一貫して達成し、単一モデルアプローチよりも優れています。
関連論文リスト
- APFEx: Adaptive Pareto Front Explorer for Intersectional Fairness [16.993547305381327]
本稿では,共同最適化問題として,交差フェアネスを明示的にモデル化する最初のフレームワークであるAPFExを紹介する。
APFExは、適応的な多目的性、勾配重み付け、探索戦略を組み合わせて、公正さと精度のトレードオフをナビゲートする。
4つの実世界のデータセットの実験は、APFExの優位性を示し、競争精度を維持しながら公正な違反を減らす。
論文 参考訳(メタデータ) (2025-09-17T11:13:22Z) - ConfPO: Exploiting Policy Model Confidence for Critical Token Selection in Preference Optimization [48.50761200321113]
大型言語モデル(LLM)における嗜好学習手法ConfPOを紹介する。
補助モデルや計算を必要とせずに、トレーニングポリシの信頼性のみに基づいて、優先クリティカルトークンを特定し、最適化する。
AlpacaEval 2 や Arena-Hard などのアライメントベンチマークの実験結果は、ConfPO が一様DAA を一貫して上回っていることを示している。
論文 参考訳(メタデータ) (2025-06-10T11:54:22Z) - FedFACT: A Provable Framework for Controllable Group-Fairness Calibration in Federated Learning [23.38141950440522]
我々はFedFACTという制御可能なグループフェアネス校正フレームワークを提案する。
FedFACTは、大域的および局所的公正性の制約の下でベイズ最適分類器を識別する。
我々は,FedFACTが精度とグローバル・ローカル・フェアネスのバランスをとる上で,ベースラインを一貫して上回ることを示す。
論文 参考訳(メタデータ) (2025-06-04T09:39:57Z) - Fairness-Aware Meta-Learning via Nash Bargaining [63.44846095241147]
本稿では,機械学習におけるグループレベルの公平性の問題に対処する2段階のメタ学習フレームワークを提案する。
第1段階では、過度な競合を解決するためにNash Bargaining Solution(NBS)を使用して、モデルをステアリングする。
6つのキーフェアネスデータセットと2つの画像分類タスクにおいて、様々なフェアネス目標に対して経験的効果を示す。
論文 参考訳(メタデータ) (2024-06-11T07:34:15Z) - Arbitrariness Lies Beyond the Fairness-Accuracy Frontier [3.383670923637875]
我々は,最先端のフェアネス介入が,グループフェアネスと精度の指標よりも高い予測倍率を隠蔽できることを示した。
より一貫した予測を確実に保証するフェアネス介入に適用可能なアンサンブルアルゴリズムを提案する。
論文 参考訳(メタデータ) (2023-06-15T18:15:46Z) - Fair-CDA: Continuous and Directional Augmentation for Group Fairness [48.84385689186208]
公正な制約を課すための詳細なデータ拡張戦略を提案する。
グループ間の感性のある特徴の遷移経路のモデルを正規化することにより、グループフェアネスを実現することができることを示す。
提案手法はデータ生成モデルを仮定せず,精度と公平性の両方に優れた一般化を実現する。
論文 参考訳(メタデータ) (2023-04-01T11:23:00Z) - DualFair: Fair Representation Learning at Both Group and Individual
Levels via Contrastive Self-supervision [73.80009454050858]
この研究は、DualFairと呼ばれる自己教師型モデルを提示し、学習された表現から性別や人種などのセンシティブな属性をデバイアスすることができる。
我々のモデルは、グループフェアネスと対実フェアネスという2つのフェアネス基準を共同で最適化する。
論文 参考訳(メタデータ) (2023-03-15T07:13:54Z) - Beyond Individual and Group Fairness [90.4666341812857]
本稿では,不公平な不公平な苦情に導かれる公平さの新しいデータ駆動モデルを提案する。
我々のモデルは、複数のフェアネス基準をサポートし、それらの潜在的な不整合を考慮に入れている。
論文 参考訳(メタデータ) (2020-08-21T14:14:44Z) - Robust Optimization for Fairness with Noisy Protected Groups [85.13255550021495]
ノイズが保護されたグループラベルに頼った結果について検討した。
頑健な最適化を用いた2つの新しいアプローチを提案する。
頑健なアプローチは、単純アプローチよりも真のグループ公平性を保証することが示される。
論文 参考訳(メタデータ) (2020-02-21T14:58:37Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。