論文の概要: An overview of active learning methods for insurance with fairness
appreciation
- arxiv url: http://arxiv.org/abs/2112.09466v1
- Date: Fri, 17 Dec 2021 12:07:04 GMT
- ステータス: 処理完了
- システム内更新日: 2021-12-20 20:28:11.958911
- Title: An overview of active learning methods for insurance with fairness
appreciation
- Title(参考訳): 公正感のある保険のためのアクティブラーニング手法の概要
- Authors: Romuald Elie, Caroline Hillairet, Fran\c{c}ois Hu, Marc Juillard
- Abstract要約: 本稿では,保険における機械学習導入の課題について論じる。
最初の課題は、アクティブな学習の助けを借りてラベル付けの労力を減らすことだ。
第二の課題は、モデル推論における公平性の問題である。
- 参考スコア(独自算出の注目度): 1.988145627448243
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: This paper addresses and solves some challenges in the adoption of machine
learning in insurance with the democratization of model deployment. The first
challenge is reducing the labelling effort (hence focusing on the data quality)
with the help of active learning, a feedback loop between the model inference
and an oracle: as in insurance the unlabeled data is usually abundant, active
learning can become a significant asset in reducing the labelling cost. For
that purpose, this paper sketches out various classical active learning
methodologies before studying their empirical impact on both synthetic and real
datasets. Another key challenge in insurance is the fairness issue in model
inferences. We will introduce and integrate a post-processing fairness for
multi-class tasks in this active learning framework to solve these two issues.
Finally numerical experiments on unfair datasets highlight that the proposed
setup presents a good compromise between model precision and fairness.
- Abstract(参考訳): 本稿では、モデル展開の民主化に伴う保険における機械学習導入の課題に対処し、解決する。
最初の課題は、アクティブな学習、モデル推論とオラクルの間のフィードバックループによってラベル付けの労力(データ品質にフォーカスする)を減らすことだ。
そこで本稿では,合成データと実データの両方に対する経験的影響を調べる前に,様々な古典的アクティブラーニング手法をスケッチする。
保険におけるもう一つの重要な課題は、モデル推論における公平性の問題である。
この2つの問題を解決するために、このアクティブラーニングフレームワークにマルチクラスタスクに対する後処理フェアネスを導入し、統合する。
最後に、不公平なデータセットに関する数値実験により、提案した設定がモデル精度と公平性の間に良い妥協をもたらすことを示した。
関連論文リスト
- Contrastive Learning of Asset Embeddings from Financial Time Series [8.595725772518332]
金融時系列データから資産埋め込みを生成するための,新しいコントラスト学習フレームワークを提案する。
提案手法は,多くのサブウインドウに対するアセットリターンの類似性を利用して,情報的正および負のサンプルを生成する。
実世界のデータセットに関する実験は、ベンチマーク業界分類とポートフォリオ最適化タスクにおける学習した資産埋め込みの有効性を実証している。
論文 参考訳(メタデータ) (2024-07-26T10:26:44Z) - Fair Active Learning in Low-Data Regimes [22.349886628823125]
機械学習の応用においては、社会的不平等の持続を避けるために公正性の確保が不可欠である。
本研究では,データスカース環境におけるバイアスの低減と精度向上という課題に対処する。
本稿では,後方サンプリングにインスパイアされた探索手法と,公平な分類サブルーチンを組み合わせた,革新的なアクティブラーニングフレームワークを提案する。
この枠組みは,確率の高い公正制約を満足しつつ,精度を最大化しながら,非常にデータ量の多い状況下で効果的に機能することが実証された。
論文 参考訳(メタデータ) (2023-12-13T23:14:55Z) - The Fairness Stitch: Unveiling the Potential of Model Stitching in
Neural Network De-Biasing [0.043512163406552]
本研究では,深層学習モデルの公平性を高めるために,"The Fairness Stitch"と呼ばれる新しい手法を提案する。
我々はCelebAとUTKFaceの2つのよく知られたデータセットを総合的に評価する。
フェアネスとパフォーマンスのバランスの取れたトレードオフを達成する上で, 顕著な改善がみられた。
論文 参考訳(メタデータ) (2023-11-06T21:14:37Z) - Fair Few-shot Learning with Auxiliary Sets [53.30014767684218]
多くの機械学習(ML)タスクでは、ラベル付きデータサンプルしか収集できないため、フェアネスのパフォーマンスが低下する可能性がある。
本稿では,限定的なトレーニングサンプルを用いたフェアネス認識学習課題をemphfair few-shot Learning問題として定義する。
そこで我々は,学習した知識をメタテストタスクに一般化し,様々なメタトレーニングタスクに公平な知識を蓄積する新しいフレームワークを考案した。
論文 参考訳(メタデータ) (2023-08-28T06:31:37Z) - Active Learning with Combinatorial Coverage [0.0]
アクティブな学習は、ラベル付けするデータを選択するプロセスを自動化する機械学習の実践的な分野である。
現在の手法はデータラベリングの負担を軽減するのに有効であるが、モデルに強く依存する。
これにより、サンプルデータの新しいモデルへの転送が不可能になり、サンプリングバイアスの問題も発生した。
本稿では,これらの課題を克服するために,カバレッジを活用した能動的学習手法を提案する。
論文 参考訳(メタデータ) (2023-02-28T13:43:23Z) - On Modality Bias Recognition and Reduction [70.69194431713825]
マルチモーダル分類の文脈におけるモダリティバイアス問題について検討する。
本稿では,各ラベルの特徴空間を適応的に学習するプラグアンドプレイ損失関数法を提案する。
本手法は, ベースラインに比べ, 顕著な性能向上を実現している。
論文 参考訳(メタデータ) (2022-02-25T13:47:09Z) - FairIF: Boosting Fairness in Deep Learning via Influence Functions with
Validation Set Sensitive Attributes [51.02407217197623]
本稿では,FAIRIFという2段階の学習アルゴリズムを提案する。
サンプル重みが計算される再重み付きデータセットの損失を最小限に抑える。
FAIRIFは、様々な種類のバイアスに対して、フェアネスとユーティリティのトレードオフを良くしたモデルが得られることを示す。
論文 参考訳(メタデータ) (2022-01-15T05:14:48Z) - Can Active Learning Preemptively Mitigate Fairness Issues? [66.84854430781097]
データセットバイアスは、機械学習における不公平な原因の1つです。
不確実性に基づくALで訓練されたモデルが保護クラスの決定において公平であるかどうかを検討する。
また,勾配反転(GRAD)やBALDなどのアルゴリズム的公正性手法の相互作用についても検討する。
論文 参考訳(メタデータ) (2021-04-14T14:20:22Z) - Learning from Similarity-Confidence Data [94.94650350944377]
類似度信頼性(Sconf)データから学習する新しい弱監督学習問題について検討する。
本研究では,Sconfデータのみから計算可能な分類リスクの非バイアス推定器を提案し,推定誤差境界が最適収束率を達成することを示す。
論文 参考訳(メタデータ) (2021-02-13T07:31:16Z) - Fairness in Semi-supervised Learning: Unlabeled Data Help to Reduce
Discrimination [53.3082498402884]
機械学習の台頭における投機は、機械学習モデルによる決定が公正かどうかである。
本稿では,未ラベルデータのラベルを予測するための擬似ラベリングを含む,前処理フェーズにおける公平な半教師付き学習の枠組みを提案する。
偏見、分散、ノイズの理論的分解分析は、半教師付き学習における差別の異なる源とそれらが公平性に与える影響を浮き彫りにする。
論文 参考訳(メタデータ) (2020-09-25T05:48:56Z) - Toward Optimal Probabilistic Active Learning Using a Bayesian Approach [4.380488084997317]
アクティブラーニングは、コストの高いラベリングリソースを効率よく効果的に割り当てることで、ラベリングコストを削減することを目的としている。
提案したモデルにおける既存の選択戦略を再構築することにより、どの側面が現在の最先端に包含されていないかを説明することができる。
論文 参考訳(メタデータ) (2020-06-02T15:59:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。