論文の概要: From Detection to Mitigation: Addressing Gender Bias in Chinese Texts via Efficient Tuning and Voting-Based Rebalancing
- arxiv url: http://arxiv.org/abs/2509.07889v1
- Date: Tue, 09 Sep 2025 16:12:11 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-10 14:38:27.395107
- Title: From Detection to Mitigation: Addressing Gender Bias in Chinese Texts via Efficient Tuning and Voting-Based Rebalancing
- Title(参考訳): 検出から緩和へ:効率の良いチューニングと投票に基づくリバランシングによる中国語テキストにおけるジェンダーバイアスの対応
- Authors: Chengyan Wu, Yiqiang Cai, Yufei Cheng, Yun Xue,
- Abstract要約: NLPCC-2025の共有タスク7に対する我々のチームのソリューションは、中国語における文レベルの男女差の検出と緩和に焦点を当てている。
我々は,Low-Rank Adaptation (LoRA)によるバイアス検出タスクに適応し,大規模言語モデル(LLM)に基づく微調整アプローチを採用する。
本手法は最終的に47.90%の平均スコアを達成し,共有タスクでは4位となった。
- 参考スコア(独自算出の注目度): 4.501499967947747
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This paper presents our team's solution to Shared Task 7 of NLPCC-2025, which focuses on sentence-level gender bias detection and mitigation in Chinese. The task aims to promote fairness and controllability in natural language generation by automatically detecting, classifying, and mitigating gender bias. To address this challenge, we adopt a fine-tuning approach based on large language models (LLMs), efficiently adapt to the bias detection task via Low-Rank Adaptation (LoRA). In terms of data processing, we construct a more balanced training set to alleviate class imbalance and introduce heterogeneous samples from multiple sources to enhance model generalization. For the detection and classification sub-tasks, we employ a majority voting strategy that integrates outputs from multiple expert models to boost performance. Additionally, to improve bias generation detection and mitigation, we design a multi-temperature sampling mechanism to capture potential variations in bias expression styles. Experimental results demonstrate the effectiveness of our approach in bias detection, classification, and mitigation. Our method ultimately achieves an average score of 47.90%, ranking fourth in the shared task.
- Abstract(参考訳): NLPCC-2025の共有タスク7に対する我々のチームのソリューションは、中国語における文レベルの男女差の検出と緩和に焦点を当てている。
この課題は、ジェンダーバイアスを自動的に検出し、分類し、緩和することにより、自然言語生成における公平性と制御性を促進することを目的としている。
この課題に対処するために,我々は,Low-Rank Adaptation (LoRA)によるバイアス検出タスクに効率よく適応する,大規模言語モデル(LLM)に基づく微調整アプローチを採用した。
データ処理の面では、クラス不均衡を軽減するためのバランスのとれたトレーニングセットを構築し、モデル一般化を強化するために複数のソースから異種サンプルを導入する。
サブタスクの検出と分類には、複数の専門家モデルからの出力を統合して性能を向上させる多数決戦略を用いる。
さらに, バイアス生成の検出と緩和を改善するため, バイアス表現スタイルの潜在的な変動を検知する多温度サンプリング機構を設計する。
実験により, バイアス検出, 分類, 緩和におけるアプローチの有効性が示された。
本手法は最終的に47.90%の平均スコアを達成し,共有タスクでは4位となった。
関連論文リスト
- Detection, Classification, and Mitigation of Gender Bias in Large Language Models [6.762310697831219]
性別バイアスの検出,分類,緩和において,大規模言語モデル(LLM)の能力を高める方法について検討する。
我々は、強化学習、思考の連鎖推論を採用し、異なるサブタスクを扱うための微調整を監督する。
NLPCC 2025Shared Task 7の3つのサブタスクのうち、第1位にランクインした。
論文 参考訳(メタデータ) (2025-06-14T14:53:25Z) - Exploring Imbalanced Annotations for Effective In-Context Learning [41.618125904839424]
大規模言語モデル (LLM) は、文脈内学習 (ICL) を通じて下流タスクに顕著な性能を示す。
本研究では,このようなクラス不均衡が多種多様なタスクにおけるICL性能を著しく低下させることを示す。
クラス不均衡下でのICL性能を向上させるために,条件付きバイアスを用いた条件付きリヘアリングを提案する。
論文 参考訳(メタデータ) (2025-02-06T12:57:50Z) - Debiasing Multimodal Large Language Models via Penalization of Language Priors [38.97645845493758]
MLLM(Multimodal Large Language Models)は、コンピュータビジョンや自然言語処理において欠かせないツールとなっている。
生成されたコンテンツは、入力画像よりも、基礎となるLarge Language Models (LLMs) の本質的な先行性によって駆動されることが多い。
本稿では、これらのバイアスを補正し、視覚情報に対するモデルの焦点をリダイレクトするための、単純でトレーニングのない2つの戦略を提案する。
論文 参考訳(メタデータ) (2024-03-08T12:35:07Z) - Identifying and Adapting Transformer-Components Responsible for Gender
Bias in an English Language Model [1.6343144783668118]
言語モデル(LM)は、性別バイアスを含むトレーニングデータから得られた多くの種類の望ましくないバイアスを示し、増幅する。
本研究では,LM成分と特定の出力の因果関係を同定する3つの手法について検討する。
本手法をGPT-2の小型化と性別バイアスの問題に適用し,検出した成分群を用いてパラメータ効率の良い微調整を行い,バイアス軽減を行う。
論文 参考訳(メタデータ) (2023-10-19T09:39:21Z) - D-CALM: A Dynamic Clustering-based Active Learning Approach for
Mitigating Bias [13.008323851750442]
本稿では,クラスタリングとアノテーションを動的に調整する適応型クラスタリングに基づく能動的学習アルゴリズムD-CALMを提案する。
感情,ヘイトスピーチ,ダイアログ行為,書籍型検出など,多種多様なテキスト分類タスクのための8つのデータセットの実験により,提案アルゴリズムがベースラインALアプローチを著しく上回ることを示した。
論文 参考訳(メタデータ) (2023-05-26T15:17:43Z) - Delving into Identify-Emphasize Paradigm for Combating Unknown Bias [52.76758938921129]
同定精度を高めるため,有効バイアス強調スコアリング法(ECS)を提案する。
また, マイニングされたバイアスアライメントとバイアスコンプリケート試料のコントリビューションのバランスをとるために, 勾配アライメント(GA)を提案する。
様々な環境で複数のデータセットで実験を行い、提案されたソリューションが未知のバイアスの影響を軽減することを実証した。
論文 参考訳(メタデータ) (2023-02-22T14:50:24Z) - Counter-GAP: Counterfactual Bias Evaluation through Gendered Ambiguous
Pronouns [53.62845317039185]
バイアス測定データセットは、言語モデルのバイアスされた振る舞いを検出する上で重要な役割を果たす。
本稿では, 多様な, 自然な, 最小限のテキストペアを, 対物生成によって収集する新しい手法を提案する。
事前学習された4つの言語モデルは、各グループ内よりも、異なる性別グループ間でかなり不整合であることを示す。
論文 参考訳(メタデータ) (2023-02-11T12:11:03Z) - General Greedy De-bias Learning [163.65789778416172]
本稿では,関数空間における勾配降下のような偏りのあるモデルとベースモデルを優雅に訓練する一般グリーディ・デバイアス学習フレームワーク(GGD)を提案する。
GGDは、事前知識を持つタスク固有バイアスモデルと、事前知識を持たない自己アンサンブルバイアスモデルの両方の設定の下で、より堅牢なベースモデルを学ぶことができる。
論文 参考訳(メタデータ) (2021-12-20T14:47:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。