論文の概要: Let the Fuzzy Rule Speak: Enhancing In-context Learning Debiasing with Interpretability
- arxiv url: http://arxiv.org/abs/2412.19018v3
- Date: Wed, 22 Jan 2025 06:53:56 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-01-23 13:30:15.804750
- Title: Let the Fuzzy Rule Speak: Enhancing In-context Learning Debiasing with Interpretability
- Title(参考訳): ファジィルールを語る:解釈可能性によるコンテキスト内学習のデバイアスの強化
- Authors: Ruixi Lin, Yang You,
- Abstract要約: 本研究では,この問題に対処するため,推論時デバイアス法であるFuRud(ファジィルール最適化に基づくデバイアス)を導入する。
FuRudは、あるクラスが各サンプルとクラス確率に対して補正と調整を必要とする理由を決定することで、中核的な解釈可能性の問題に対処する。
7つのベンチマークデータセット全体で、FuRudはCOBiasを半分以上(56%)削減し、全体の精度が21%向上した。
- 参考スコア(独自算出の注目度): 12.287692969438169
- License:
- Abstract: One of the potential failures of large language models (LLMs) is their imbalanced class performances in text classification tasks. With in-context learning (ICL), LLMs yields good accuracy for some classes but low accuracy for others. This imbalance is particularly problematic when misclassifications lead to user dissatisfaction or safety risks. While the root causes may lie in the data, addressing them from the source through training is neither easy nor cost-effective. To delve deeper, the imbalance stems from certain classes consistently receiving disproportionately high ICL probabilities, while others receive lower probabilities, resulting in under-prediction and lower accuracy in the latter. Crucially, probability ranges vary in their impact on the imbalance, enabling precise corrections by range. Therefore, this work introduces an inference-time debiasing method, FuRud (Fuzzy Rule Optimization-based Debiasing), to tackle this issue. FuRud addresses core interpretability challenges by determining why certain classes require corrections and tailoring adjustments for each sample and class probability. Tailored corrections use fuzzy sets with triangular membership functions, because they can transform per-sample class probabilities based on probability ranges. Each class selects one from 19 triangular membership functions, solving a nonlinear integer programming selection problem with simulated annealing, to minimize class accuracy bias (COBias) and maximize overall accuracy without updating LLM parameters. Notably, across seven benchmark datasets, FuRud reduces COBias by more than half (56%), while achieving a relative increase of 21% in overall accuracy, outperforming state-of-the-art debiasing methods.
- Abstract(参考訳): 大きな言語モデル(LLM)の潜在的な失敗の1つは、テキスト分類タスクにおける不均衡なクラスパフォーマンスである。
文脈内学習(ICL)では、LLMは一部のクラスでは精度が良いが、他のクラスでは精度が低い。
この不均衡は、誤分類がユーザの不満や安全性のリスクにつながる場合に特に問題となる。
根本原因はデータにあるかもしれないが、ソースからトレーニングを通じてそれらに対処することは簡単でも費用対効果でもない。
より深く掘り下げるには、不均衡は不均等に高いICL確率を連続的に受けるクラスに由来するが、他のクラスは低い確率を与えられるため、予測不足と後者の精度が低下する。
重要な点として、確率範囲は不均衡に対する影響が異なるため、範囲ごとの正確な補正が可能である。
そこで本研究では,FuRud (Fuzzy Rule Optimization-based Debiasing) という推論時デバイアス法を導入し,この問題に対処する。
FuRudは、あるクラスが各サンプルとクラス確率に対して補正と調整を必要とする理由を決定することで、中核的な解釈可能性の問題に対処する。
テーラー補正は、確率範囲に基づいてサンプル単位のクラス確率を変換できるため、三角形の会員関数を持つファジィ集合を用いる。
各クラスは、19の三角形のメンバシップ関数から1つを選択し、シミュレートされたアニールによる非線形整数プログラミング選択問題を解き、クラス精度バイアス(COBias)を最小化し、LLMパラメータを更新することなく全体的な精度を最大化する。
特に7つのベンチマークデータセットで、FuRudはCOBiasを半分以上(56%)削減し、全体的な精度は21%向上し、最先端のデバイアス手法を上回っている。
関連論文リスト
- Risk-based Calibration for Probabilistic Classifiers [4.792851066169872]
リスクベースキャリブレーション(RC)と呼ばれる一般的な反復的手法を導入し,0-1損失による経験的リスクを最小限に抑える。
RCは、元の閉形式学習アルゴリズムの経験的誤りを改善し、より顕著に、勾配降下法よりも一貫して優れている。
論文 参考訳(メタデータ) (2024-09-05T14:06:56Z) - COBias and Debias: Balancing Class Accuracies for Language Models in Inference Time via Nonlinear Integer Programming [12.287692969438169]
本稿では,言語モデルにおける基本的な推論時間問題について考察する。
問題の根底にあるものは、いくつかのクラスを過大予測し、他のクラスを過小予測する傾向があることです。
推論時間最適化によって効果的に緩和できることを示す。
論文 参考訳(メタデータ) (2024-05-13T10:30:33Z) - Uncertainty-guided Boundary Learning for Imbalanced Social Event
Detection [64.4350027428928]
本研究では,不均衡なイベント検出タスクのための不確実性誘導型クラス不均衡学習フレームワークを提案する。
我々のモデルは、ほとんど全てのクラス、特に不確実なクラスにおいて、社会イベントの表現と分類タスクを大幅に改善する。
論文 参考訳(メタデータ) (2023-10-30T03:32:04Z) - Deep Imbalanced Regression via Hierarchical Classification Adjustment [50.19438850112964]
コンピュータビジョンにおける回帰タスクは、しばしば、対象空間をクラスに定量化することで分類される。
トレーニングサンプルの大多数は目標値の先頭にあるが、少数のサンプルは通常より広い尾幅に分布する。
不均衡回帰タスクを解くために階層型分類器を構築することを提案する。
不均衡回帰のための新しい階層型分類調整(HCA)は,3つのタスクにおいて優れた結果を示す。
論文 参考訳(メタデータ) (2023-10-26T04:54:39Z) - Probabilistic Safety Regions Via Finite Families of Scalable Classifiers [2.431537995108158]
監視された分類は、データのパターンを認識して、振る舞いのクラスを分離する。
正準解は、機械学習の数値近似の性質に固有の誤分類誤差を含む。
本稿では,確率論的安全性領域の概念を導入し,入力空間のサブセットとして,誤分類されたインスタンスの数を確率論的に制御する手法を提案する。
論文 参考訳(メタデータ) (2023-09-08T22:40:19Z) - Revisiting adversarial training for the worst-performing class [60.231877895663956]
多くのデータセットにおいて、トップパフォーマンスクラスと最悪のパフォーマンスクラスの間には、かなりのギャップがある。
我々は、最悪のパフォーマンスのクラスを明示的に最適化することで、このギャップを減らせることができると論じる。
本手法は,クラス集中型オンライン学習(CFOL)と呼ばれ,最悪のクラス損失に対する高い確率収束保証を含む。
論文 参考訳(メタデータ) (2023-02-17T13:41:40Z) - CMW-Net: Learning a Class-Aware Sample Weighting Mapping for Robust Deep
Learning [55.733193075728096]
現代のディープニューラルネットワークは、破損したラベルやクラス不均衡を含むバイアス付きトレーニングデータに容易に適合する。
サンプル再重み付け手法は、このデータバイアス問題を緩和するために一般的に使用されている。
本稿では,データから直接明示的な重み付け方式を適応的に学習できるメタモデルを提案する。
論文 参考訳(メタデータ) (2022-02-11T13:49:51Z) - The Interplay between Distribution Parameters and the
Accuracy-Robustness Tradeoff in Classification [0.0]
アドリラルトレーニングは、通常のモデルに比べて自然(未成熟)の例では正確でないモデルをもたらす傾向にある。
これは、アルゴリズムの欠点か、トレーニングデータ分散の基本的な性質によるものとみなすことができる。
本研究では,二進ガウス混合分類問題の下で後者のケースに焦点をあてる。
論文 参考訳(メタデータ) (2021-07-01T06:57:50Z) - PLM: Partial Label Masking for Imbalanced Multi-label Classification [59.68444804243782]
長いラベルの分布を持つ実世界のデータセットで訓練されたニューラルネットワークは、頻繁なクラスに偏りがあり、頻繁なクラスでは不十分である。
本稿では,この比率を利用したPLM(Partial Label Masking)を提案する。
本手法は,マルチラベル (MultiMNIST と MSCOCO) とシングルラベル (CIFAR-10 と CIFAR-100) の2つの画像分類データセットにおいて,既存の手法と比較して高い性能を実現する。
論文 参考訳(メタデータ) (2021-05-22T18:07:56Z) - Deep F-measure Maximization for End-to-End Speech Understanding [52.36496114728355]
本稿では,F測度に対する微分可能な近似法を提案し,標準バックプロパゲーションを用いてネットワークをトレーニングする。
我々は、アダルト、コミュニティ、犯罪の2つの標準フェアネスデータセットの実験を行い、ATISデータセットの音声・インテリジェンス検出と音声・COCOデータセットの音声・イメージ概念分類を行った。
これらの4つのタスクのすべてにおいて、F測定は、クロスエントロピー損失関数で訓練されたモデルと比較して、最大8%の絶対的な絶対的な改善を含む、マイクロF1スコアの改善をもたらす。
論文 参考訳(メタデータ) (2020-08-08T03:02:27Z) - VaB-AL: Incorporating Class Imbalance and Difficulty with Variational
Bayes for Active Learning [38.33920705605981]
本研究では,クラス不均衡をアクティブラーニングフレームワークに自然に組み込む手法を提案する。
提案手法は,複数の異なるデータセットのタスク分類に適用可能であることを示す。
論文 参考訳(メタデータ) (2020-03-25T07:34:06Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。