論文の概要: COBias and Debias: Balancing Class Accuracies for Language Models in Inference Time via Nonlinear Integer Programming
- arxiv url: http://arxiv.org/abs/2405.07623v4
- Date: Mon, 27 Jan 2025 12:32:08 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-01-28 13:51:28.579262
- Title: COBias and Debias: Balancing Class Accuracies for Language Models in Inference Time via Nonlinear Integer Programming
- Title(参考訳): COBiasとDebias:非線形整数プログラミングによる推論時間における言語モデルのクラス精度のバランス
- Authors: Ruixi Lin, Yang You,
- Abstract要約: 本稿では,言語モデルにおける基本的な推論時間問題について考察する。
問題の根底にあるものは、いくつかのクラスを過大予測し、他のクラスを過小予測する傾向があることです。
推論時間最適化によって効果的に緩和できることを示す。
- 参考スコア(独自算出の注目度): 12.287692969438169
- License:
- Abstract: Large language models (LLMs) are good knowledge bases but struggle to perform equally well for all classes in text classification tasks. This paper investigates a fundamental inference-time problem in language models: imbalanced class accuracies. We find what's underneath the issue is a tendency to over-predict some classes while under-predicting some others. This class accuracy imbalance is difficult to solve from the root via better pre-training or fine-tuning strategies, but we show it can be effectively mitigated via inference-time combinatorial optimization. To this end, we conceptualize and quantify the over- and under-prediction issue as the Contextual Oddity Bias (COBias), and propose the Debiasing as Nonlinear Integer Programming (DNIP) model to correct in-context learned class probabilities based on minimizing COBias and maximizing overall accuracy, without LLM parameter update. Considering that the DNIP model implicitly contains non-differentiable elements, we therefore use the simulated annealing algorithm to solve it. Extensive evaluations on three LLMs across seven NLP classification tasks in different prompting settings show that DNIP simultaneously achieves significant COBias reduction (-27%) and accuracy improvement (+12%) over the conventional ICL approach, suggesting that inference-time mitigation of class accuracy imbalance is a promising direction to push forward LLM performances.
- Abstract(参考訳): 大規模言語モデル(LLM)は優れた知識ベースであるが、テキスト分類タスクのすべてのクラスで同等に機能するのに苦労する。
本稿では,言語モデルにおける基本的な推論時間問題について考察する。
問題の根底にあるものは、いくつかのクラスを過大予測し、他のクラスを過小予測する傾向があることです。
このクラス精度の不均衡は、より優れた事前学習や微調整戦略によって根から解決することは困難であるが、推論時組合せ最適化によって効果的に緩和できることを示す。
そこで本稿では,COBias の最小化と LLM パラメータの更新を伴わずに総合的精度の最大化を図り,コンテキストオダニティバイアス (COBias) 問題の概念化と定量化を行い,非線形整数計画 (DNIP) モデルとしてのデバイアスングを提案している。
DNIPモデルが非微分可能要素を暗黙的に含んでいることを考慮し、シミュレートされたアニーリングアルゴリズムを用いて解決する。
7つのNLP分類タスクにおける3つのLLMの広範囲な評価は、DNIPが従来のICLアプローチよりも大きなCOBias削減(27%)と精度改善(+12%)を同時に達成していることを示している。
関連論文リスト
- Let the Fuzzy Rule Speak: Enhancing In-context Learning Debiasing with Interpretability [12.287692969438169]
大規模言語モデル(LLM)は、テキスト分類タスクにおいて、文脈内学習(ICL)を用いたバランスの取れたクラス精度に苦慮することが多い。
本稿では、クラス精度の不均衡問題を深く掘り下げ、あるクラスが不均等に高いICL確率を常に受けているため、それが生じることを確かめる。
本稿では,サンプルレベルのクラス確率補正手法であるFuRudを紹介する。
論文 参考訳(メタデータ) (2024-12-26T01:56:42Z) - Covariance-corrected Whitening Alleviates Network Degeneration on Imbalanced Classification [6.197116272789107]
クラス不均衡は画像分類において重要な問題であり、深層認識モデルの性能に大きな影響を及ぼす。
我々は、退化ソリューションを緩和するWhitening-Netと呼ばれる新しいフレームワークを提案する。
極端なクラス不均衡のシナリオでは、バッチ共分散統計は大きな変動を示し、白化操作の収束を妨げる。
論文 参考訳(メタデータ) (2024-08-30T10:49:33Z) - Uncertainty Aware Learning for Language Model Alignment [97.36361196793929]
異なるタスクシナリオのモデルアライメントを改善するために,不確実性認識学習(UAL)を提案する。
トレーニングのラベルの平滑化値を個々のサンプルの不確実性に応じて適応的に設定する。
広く使われているベンチマーク実験では、我々のUALは標準教師あり微調整よりも著しく優れています。
論文 参考訳(メタデータ) (2024-06-07T11:37:45Z) - A Hard-to-Beat Baseline for Training-free CLIP-based Adaptation [121.0693322732454]
対照的に、CLIP(Contrastive Language- Image Pretraining)はその目覚ましいゼロショット能力で人気を集めている。
近年の研究では、下流タスクにおけるCLIPの性能を高めるための効率的な微調整手法の開発に焦点が当てられている。
従来のアルゴリズムであるガウス判別分析(GDA)を再検討し,CLIPの下流分類に適用する。
論文 参考訳(メタデータ) (2024-02-06T15:45:27Z) - Online Continual Learning via Logit Adjusted Softmax [24.327176079085703]
訓練中のクラス間の不均衡は、忘れる主な原因として特定されている。
トレーニング中のモデルロジットの簡単な調整は、事前クラスバイアスに効果的に抵抗することができる。
提案手法であるLogit Adjusted Softmaxは,クラス増分だけでなく,現実的な一般設定においても,クラス間不均衡の影響を軽減することができる。
論文 参考訳(メタデータ) (2023-11-11T03:03:33Z) - Fine-tune Language Models to Approximate Unbiased In-context Learning [8.609157988755896]
RICL(Reweighted In-context Learning)と呼ばれる再重み付きアルゴリズムを導入する。
このアルゴリズムは、各入力出力サンプルの最適な重みを決定するために、バイアスのない検証セットを使用して言語モデルを微調整する。
また、LARICLと呼ばれる線形最適重み近似アルゴリズムである、低コスト再重み付きアルゴリズムも導入する。
論文 参考訳(メタデータ) (2023-10-05T06:16:01Z) - CLIPood: Generalizing CLIP to Out-of-Distributions [73.86353105017076]
対照的に、CLIP(Language-image Pre-training)モデルでは、印象的なゼロショット能力を示しているが、下流タスクにおけるCLIPのさらなる適応は、OODのパフォーマンスを好ましくない劣化させる。
ドメインシフトとオープンクラスの両方が見えないテストデータ上で発生する可能性があるOOD状況にCLIPモデルを適用するための微調整手法であるCLIPoodを提案する。
さまざまなOODシナリオによるさまざまなデータセットの実験は、CLIPoodが既存の一般化テクニックを一貫して上回っていることを示している。
論文 参考訳(メタデータ) (2023-02-02T04:27:54Z) - Deep Negative Correlation Classification [82.45045814842595]
既存のディープアンサンブル手法は、多くの異なるモデルをナビゲートし、予測を集約する。
深部負相関分類(DNCC)を提案する。
DNCCは、個々の推定器が正確かつ負の相関を持つ深い分類アンサンブルを生成する。
論文 参考訳(メタデータ) (2022-12-14T07:35:20Z) - Oracle Inequalities for Model Selection in Offline Reinforcement
Learning [105.74139523696284]
本稿では,値関数近似を用いたオフラインRLにおけるモデル選択の問題について検討する。
対数係数まで最小値の速度-最適不等式を実現するオフラインRLの最初のモデル選択アルゴリズムを提案する。
そこで本研究では,優れたモデルクラスを確実に選択できることを示す数値シミュレーションを行った。
論文 参考訳(メタデータ) (2022-11-03T17:32:34Z) - Generalized Zero-Shot Learning Via Over-Complete Distribution [79.5140590952889]
そこで本稿では,CVAE (Conditional Variational Autoencoder) を用いたOCD(Over-Complete Distribution) の生成を提案する。
フレームワークの有効性は,Zero-Shot LearningプロトコルとGeneralized Zero-Shot Learningプロトコルの両方を用いて評価する。
論文 参考訳(メタデータ) (2020-04-01T19:05:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。