論文の概要: Towards a more efficient bias detection in financial language models
- arxiv url: http://arxiv.org/abs/2603.08267v1
- Date: Mon, 09 Mar 2026 11:38:53 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-10 15:13:15.882918
- Title: Towards a more efficient bias detection in financial language models
- Title(参考訳): 金融言語モデルにおけるより効率的なバイアス検出に向けて
- Authors: Firas Hadj Kacem, Ahmed Khanfir, Mike Papadakis,
- Abstract要約: 金融言語モデルにおけるバイアスは、現実のアプリケーションにおいて採用される大きな障害である。
5つの金融言語モデルにおけるバイアスの大規模研究を行う。
モデル間誘導バイアス検出について検討し、より早くバイアス検出入力を同定する。
- 参考スコア(独自算出の注目度): 5.317864735982288
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: Bias in financial language models constitutes a major obstacle to their adoption in real-world applications. Detecting such bias is challenging, as it requires identifying inputs whose predictions change when varying properties unrelated to the decision, such as demographic attributes. Existing approaches typically rely on exhaustive mutation and pairwise prediction analysis over large corpora, which is effective but computationally expensive-particularly for large language models and can become impractical in continuous retraining and releasing processes. Aiming at reducing this cost, we conduct a large-scale study of bias in five financial language models, examining similarities in their bias tendencies across protected attributes and exploring cross-model-guided bias detection to identify bias-revealing inputs earlier. Our study uses approximately 17k real financial news sentences, mutated to construct over 125k original-mutant pairs. Results show that all models exhibit bias under both atomic (0.58\%-6.05\%) and intersectional (0.75\%-5.97\%) settings. Moreover, we observe consistent patterns in bias-revealing inputs across models, enabling substantial reuse and cost reduction in bias detection. For example, up to 73\% of FinMA's biased behaviours can be uncovered using only 20\% of the input pairs when guided by properties derived from DistilRoBERTa outputs.
- Abstract(参考訳): 金融言語モデルにおけるバイアスは、現実のアプリケーションにおいて採用される上で大きな障害となっている。
このようなバイアスを検出することは、人口統計属性など、決定に無関係な様々な特性が変化すると、予測が変化する入力を特定する必要があるため、難しい。
既存のアプローチは通常、大規模なコーパスに対する徹底的な突然変異とペアワイズ予測分析に依存しており、これは大規模言語モデルには有効だが、特に計算に高価であり、継続的な再訓練やリリースプロセスでは実用的ではない。
このコスト削減を目的として、5つの金融言語モデルにおけるバイアスの大規模調査を行い、保護属性間でのバイアス傾向の類似性を調査し、より早い段階でバイアス検出を行う。
本研究は,約17万件の実際の財務ニュース文を用いて,125万件以上のオリジナル・ミュータントペアを構築した。
結果は、全てのモデルが原子(0.58\%-6.05\%)と交叉(0.75\%-5.97\%)の両方でバイアスを示すことを示している。
さらに,モデル間のバイアス検出入力における一貫したパターンを観察し,バイアス検出の大幅な再利用とコスト削減を実現する。
例えば、DistilRoBERTa出力から導かれるプロパティによって導かれる場合、FinMAのバイアスされた振る舞いの最大73\%は、入力ペアの20\%しか発見できない。
関連論文リスト
- Improving Bias Mitigation through Bias Experts in Natural Language
Understanding [10.363406065066538]
補助モデルと主モデルの間に二項分類器を導入するデバイアス化フレームワークを提案する。
提案手法は補助モデルのバイアス識別能力を向上させる。
論文 参考訳(メタデータ) (2023-12-06T16:15:00Z) - Fast Model Debias with Machine Unlearning [54.32026474971696]
ディープニューラルネットワークは多くの現実世界のシナリオでバイアスのある振る舞いをする。
既存のデバイアス法は、バイアスラベルやモデル再トレーニングのコストが高い。
バイアスを特定し,評価し,除去するための効率的なアプローチを提供する高速モデル脱バイアスフレームワーク(FMD)を提案する。
論文 参考訳(メタデータ) (2023-10-19T08:10:57Z) - General Greedy De-bias Learning [163.65789778416172]
本稿では,関数空間における勾配降下のような偏りのあるモデルとベースモデルを優雅に訓練する一般グリーディ・デバイアス学習フレームワーク(GGD)を提案する。
GGDは、事前知識を持つタスク固有バイアスモデルと、事前知識を持たない自己アンサンブルバイアスモデルの両方の設定の下で、より堅牢なベースモデルを学ぶことができる。
論文 参考訳(メタデータ) (2021-12-20T14:47:32Z) - Balancing out Bias: Achieving Fairness Through Training Reweighting [58.201275105195485]
自然言語処理におけるバイアスは、性別や人種などの著者の特徴を学習するモデルから生じる。
既存のバイアスの緩和と測定方法は、著者の人口統計学と言語変数の相関を直接考慮していない。
本稿では,インスタンス再重み付けを用いたバイアス対策法を提案する。
論文 参考訳(メタデータ) (2021-09-16T23:40:28Z) - Don't Discard All the Biased Instances: Investigating a Core Assumption
in Dataset Bias Mitigation Techniques [19.252319300590656]
データセットバイアスを緩和する既存のテクニックは、バイアス付きモデルを利用してバイアス付きインスタンスを識別することが多い。
これらの偏りのあるインスタンスの役割は、メインモデルのトレーニング中に減少し、アウト・オブ・ディストリビューションデータに対するロバスト性を高める。
本稿では,この仮定が一般には成り立たないことを示す。
論文 参考訳(メタデータ) (2021-09-01T10:25:46Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。