論文の概要: LLM-Guided Synthetic Augmentation (LGSA) for Mitigating Bias in AI Systems
- arxiv url: http://arxiv.org/abs/2510.13202v1
- Date: Wed, 15 Oct 2025 06:42:35 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-16 20:13:28.529054
- Title: LLM-Guided Synthetic Augmentation (LGSA) for Mitigating Bias in AI Systems
- Title(参考訳): LLM-Guided Synthetic Augmentation (LGSA)によるAIシステムのバイアス軽減
- Authors: Sai Suhruth Reddy Karri, Yashwanth Sai Nallapuneni, Laxmi Narasimha Reddy Mallireddy, Gopichand G,
- Abstract要約: 特定のグループの控えめな表現は、しばしば人口統計学的に不均一なパフォーマンスをもたらす。
これらの課題に対処するために,LLM-Guided Synthetic Augmentation (LGSA)を提案する。
LGSAは、ラベルの整合性を保ちながら、大きな言語モデルを使用して、表現不足のグループの反実例を生成する。
- 参考スコア(独自算出の注目度): 0.24699742392288992
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Bias in AI systems, especially those relying on natural language data, raises ethical and practical concerns. Underrepresentation of certain groups often leads to uneven performance across demographics. Traditional fairness methods, such as pre-processing, in-processing, and post-processing, depend on protected-attribute labels, involve accuracy-fairness trade-offs, and may not generalize across datasets. To address these challenges, we propose LLM-Guided Synthetic Augmentation (LGSA), which uses large language models to generate counterfactual examples for underrepresented groups while preserving label integrity. We evaluated LGSA on a controlled dataset of short English sentences with gendered pronouns, professions, and binary classification labels. Structured prompts were used to produce gender-swapped paraphrases, followed by quality control including semantic similarity checks, attribute verification, toxicity screening, and human spot checks. The augmented dataset expanded training coverage and was used to train a classifier under consistent conditions. Results show that LGSA reduces performance disparities without compromising accuracy. The baseline model achieved 96.7 percent accuracy with a 7.2 percent gender bias gap. Simple swap augmentation reduced the gap to 0.7 percent but lowered accuracy to 95.6 percent. LGSA achieved 99.1 percent accuracy with a 1.9 percent bias gap, improving performance on female-labeled examples. These findings demonstrate that LGSA is an effective strategy for bias mitigation, enhancing subgroup balance while maintaining high task accuracy and label fidelity.
- Abstract(参考訳): AIシステムにおけるバイアス、特に自然言語データに依存しているバイアスは、倫理的および実践的な懸念を提起する。
特定のグループの控えめな表現は、しばしば人口統計学的に不均一なパフォーマンスをもたらす。
前処理、内処理、後処理といった従来のフェアネスメソッドは、保護された属性ラベルに依存し、正確さと公正さのトレードオフを伴い、データセットをまたいだ一般化を行なわない可能性がある。
これらの課題に対処するため,LLM-Guided Synthetic Augmentation (LGSA)を提案する。
性別付き代名詞,専門職,二項分類ラベルを用いた短い英語文の制御データセットを用いてLGSAの評価を行った。
構造的プロンプトは、ジェンダースワップされたパラフレーズを生成するために使用され、続いてセマンティック類似性チェック、属性検証、毒性スクリーニング、人間のスポットチェックなどの品質制御が行われた。
強化データセットはトレーニングカバレッジを拡張し、一貫した条件下で分類器をトレーニングするために使用された。
その結果,LGSAは精度を損なうことなく性能格差を低減できることがわかった。
基準モデルの精度は96.7%で、男女差は7.2%だった。
単純なスワップの増設によりギャップは0.7%まで縮めたが、精度は95.6%にまで低下した。
LGSAは1.9%のバイアスギャップで99.1%の精度を達成した。
以上の結果から,LGSAは,高いタスク精度とラベル忠実度を維持しつつ,サブグループバランスを向上し,バイアス軽減に有効な戦略であることが示唆された。
関連論文リスト
- Fairness Without Labels: Pseudo-Balancing for Bias Mitigation in Face Gender Classification [10.66892435479991]
顔の性別分類モデルは、しばしば、トレーニングデータに存在する人口統計バイアスを反映し、増幅する。
半教師付き学習において,そのようなバイアスを軽減するためのシンプルで効果的な戦略である擬似バランスを導入する。
本手法は,レースバランスデータセットからのラベルなし画像のみを用いて,擬似ラベル選択時の人口収支を強制する。
論文 参考訳(メタデータ) (2025-10-11T12:08:40Z) - Mitigating Subgroup Disparities in Multi-Label Speech Emotion Recognition: A Pseudo-Labeling and Unsupervised Learning Approach [53.824673312331626]
Implicit Demography Inference (IDI)モジュールは、k平均クラスタリングを用いて、音声感情認識(SER)におけるバイアスを軽減する
実験により、擬似ラベルIDIはサブグループの格差を減らし、フェアネスの指標を28%以上改善することが示された。
教師なしのIDIは、SERのパフォーマンスが3.6%未満のフェアネス指標を4.6%以上改善する。
論文 参考訳(メタデータ) (2025-05-20T14:50:44Z) - GenderCARE: A Comprehensive Framework for Assessing and Reducing Gender Bias in Large Language Models [73.23743278545321]
大規模言語モデル(LLM)は、自然言語生成において顕著な能力を示してきたが、社会的バイアスを増大させることも観察されている。
GenderCAREは、革新的な基準、バイアス評価、リダクションテクニック、評価メトリクスを含む包括的なフレームワークである。
論文 参考訳(メタデータ) (2024-08-22T15:35:46Z) - Individual Fairness Through Reweighting and Tuning [0.23395944472515745]
社会内の本質的なバイアスは、人工知能(AI)システムによって増幅し、永続することができる。
近年,グラフラプラシアン正則化器 (GLR) が一般リプシッツ条件の代用として用いられ,個人の公正性を高めている。
本研究では,GLRを列車上で独立に定義し,目標データに類似した精度を維持できるかどうかを検討した。
論文 参考訳(メタデータ) (2024-05-02T20:15:25Z) - FAIRLABEL: Correcting Bias in Labels [2.810160553339817]
ラベルのバイアスを検出し修正するアルゴリズムであるFAIRLABELを提案する。
FAIRLABELisの目標は、予測の精度を維持しつつ、グループ間での異種影響(DI)を低減することである。
論文 参考訳(メタデータ) (2023-11-01T16:38:27Z) - Balancing Biases and Preserving Privacy on Balanced Faces in the Wild [50.915684171879036]
現在の顔認識(FR)モデルには、人口統計バイアスが存在する。
さまざまな民族と性別のサブグループにまたがる偏見を測定するために、我々のバランス・フェイススをWildデータセットに導入します。
真偽と偽のサンプルペアを区別するために1点のスコアしきい値に依存すると、最適以下の結果が得られます。
本稿では,最先端ニューラルネットワークから抽出した顔特徴を用いたドメイン適応学習手法を提案する。
論文 参考訳(メタデータ) (2021-03-16T15:05:49Z) - Post-Comparison Mitigation of Demographic Bias in Face Recognition Using
Fair Score Normalization [15.431761867166]
顔認識におけるバイアスの影響を低減するために,教師なしのフェアスコア正規化手法を提案する。
我々の解決策は、性別を考慮した場合の人口バイアスを最大82.7%削減する。
従来の研究とは対照的に、我々の公正な正規化アプローチは、偽一致率0.001で53.2%、偽一致率0.00001で82.9%まで全体の性能を向上させる。
論文 参考訳(メタデータ) (2020-02-10T08:17:26Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。