論文の概要: Mitigating Label Length Bias in Large Language Models
- arxiv url: http://arxiv.org/abs/2511.14385v1
- Date: Tue, 18 Nov 2025 11:45:24 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-19 16:23:53.081496
- Title: Mitigating Label Length Bias in Large Language Models
- Title(参考訳): 大規模言語モデルにおけるラベル長バイアスの緩和
- Authors: Mario Sanz-Guerrero, Katharina von der Wense,
- Abstract要約: 正規化文脈キャリブレーション(NCC)は、全ラベルレベルでの予測を正規化し、校正する有効な方法である。
NCCは、複数のデータセットやモデルにまたがる以前のアプローチよりも統計的に重要な改善を実現している。
分析の結果、文脈内学習と組み合わせると、NCCは少数ショットのサンプル選択に敏感でなく、競合性能のサンプルが少ないこと、信頼性の高い信頼度を推定できることがわかった。
- 参考スコア(独自算出の注目度): 16.378998802160375
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Large language models (LLMs) are powerful zero- and few-shot learners. However, when predicting over a set of candidate options, LLMs suffer from label biases, and existing calibration methods overlook biases arising from multi-token class labels. We tackle an issue we call label length bias, where labels of different lengths are treated inconsistently, even after standard length normalization. To mitigate it, we propose normalized contextual calibration (NCC), an effective method that normalizes and calibrates predictions at the full-label level. NCC achieves statistically significant improvements over prior approaches across multiple datasets and models, with gains of up to 10% F1. Moreover, NCC extends bias mitigation to broader tasks such as multiple-choice question answering. Our analysis shows that, when combined with in-context learning, NCC is less sensitive to few-shot example selection, requires fewer examples for competitive performance, and produces more reliable confidence estimates. These findings highlight the importance of mitigating full-label biases to improve the performance and robustness of LLM-based methods, particularly in real-world applications where class labels naturally consist of multiple tokens.
- Abstract(参考訳): 大規模言語モデル (LLM) は、ゼロショットと少数ショットの学習者である。
しかし、候補となるオプションのセットを予測する場合、LCMはラベルバイアスに悩まされ、既存のキャリブレーション手法はマルチトークンのクラスラベルから生じるバイアスを無視する。
我々はラベル長バイアスと呼ばれる問題に取り組み、標準長さの正規化後も異なる長さのラベルが不整合に扱われる。
そこで本研究では,正規化された文脈キャリブレーション(NCC)を提案する。
NCCは、複数のデータセットやモデルにまたがる以前のアプローチよりも統計的に重要な改善を実現している。
さらに、NCCはバイアス軽減を、複数選択質問応答のようなより広範なタスクに拡張する。
分析の結果、文脈内学習と組み合わせると、NCCは少数ショットのサンプル選択に敏感でなく、競合性能のサンプルが少ないこと、信頼性の高い信頼度を推定できることがわかった。
これらの知見は, クラスラベルが自然に複数のトークンから構成される実世界のアプリケーションにおいて, LLM法の性能とロバスト性を向上させるために, フルラベルバイアスを緩和することの重要性を強調した。
関連論文リスト
- Dynamic Correlation Learning and Regularization for Multi-Label Confidence Calibration [60.95748658638956]
本稿では,多ラベルシナリオにおける信頼度を適切に評価することを目的としたマルチラベル信頼性タスクを提案する。
既存のシングルラベルキャリブレーション手法では、セマンティックな混乱に対処するために欠かせないカテゴリ相関を考慮できない。
本稿では,多粒度セマンティック相関を利用した動的相関学習と正規化アルゴリズムを提案する。
論文 参考訳(メタデータ) (2024-07-09T13:26:21Z) - Beyond Performance: Quantifying and Mitigating Label Bias in LLMs [8.77694178599322]
モデル予測におけるラベルバイアスを定量化するための様々なアプローチを評価する。
本研究により, 脱バイアス前後のモデルに有意なラベルバイアスが認められた。
数発のプロンプトに適したラベルバイアス校正法を提案する。
論文 参考訳(メタデータ) (2024-05-04T19:53:03Z) - Mitigating Label Biases for In-context Learning [28.209613730240633]
インコンテキスト学習(ICL)のための様々な設計設定は、タスクの理解を反映することなく、特定の予測に向けてモデルをバイアスすることができる。
本研究は,テキスト分類におけるICLの3種類のラベルバイアスに対して,バニララベルバイアス,コンテキストラベルバイアス,ドメインラベルバイアスの3種類のタイプを定義した。
論文 参考訳(メタデータ) (2023-05-28T15:37:39Z) - Class-Distribution-Aware Pseudo Labeling for Semi-Supervised Multi-Label
Learning [97.88458953075205]
Pseudo-labelingは、ラベルなしデータを利用するための人気で効果的なアプローチとして登場した。
本稿では,クラスアウェアの擬似ラベル処理を行うCAP(Class-Aware Pseudo-Labeling)という新しい手法を提案する。
論文 参考訳(メタデータ) (2023-05-04T12:52:18Z) - SoftMatch: Addressing the Quantity-Quality Trade-off in Semi-supervised
Learning [101.86916775218403]
本稿では, サンプル重み付けを統一した定式化により, 一般的な擬似ラベル法を再検討する。
トレーニング中の擬似ラベルの量と質を両立させることでトレードオフを克服するSoftMatchを提案する。
実験では、画像、テキスト、不均衡な分類など、さまざまなベンチマークで大幅に改善されている。
論文 参考訳(メタデータ) (2023-01-26T03:53:25Z) - PLM: Partial Label Masking for Imbalanced Multi-label Classification [59.68444804243782]
長いラベルの分布を持つ実世界のデータセットで訓練されたニューラルネットワークは、頻繁なクラスに偏りがあり、頻繁なクラスでは不十分である。
本稿では,この比率を利用したPLM(Partial Label Masking)を提案する。
本手法は,マルチラベル (MultiMNIST と MSCOCO) とシングルラベル (CIFAR-10 と CIFAR-100) の2つの画像分類データセットにおいて,既存の手法と比較して高い性能を実現する。
論文 参考訳(メタデータ) (2021-05-22T18:07:56Z) - In Defense of Pseudo-Labeling: An Uncertainty-Aware Pseudo-label
Selection Framework for Semi-Supervised Learning [53.1047775185362]
Pseudo-labeling (PL) は一般的な SSL アプローチで、この制約はありませんが、当初の処方では比較的不十分です。
PLは不整合モデルからの誤った高い信頼度予測により性能が低下していると論じる。
そこで本研究では,疑似ラベリング精度を向上させるための不確実性認識型擬似ラベル選択(ups)フレームワークを提案する。
論文 参考訳(メタデータ) (2021-01-15T23:29:57Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。