論文の概要: Striking a Balance: Alleviating Inconsistency in Pre-trained Models for
Symmetric Classification Tasks
- arxiv url: http://arxiv.org/abs/2203.13491v1
- Date: Fri, 25 Mar 2022 07:55:39 GMT
- ステータス: 処理完了
- システム内更新日: 2022-03-28 13:02:41.398490
- Title: Striking a Balance: Alleviating Inconsistency in Pre-trained Models for
Symmetric Classification Tasks
- Title(参考訳): バランスを取る:対称分類タスクのための事前学習モデルにおける不整合を緩和する
- Authors: Ashutosh Kumar, Aditya Joshi
- Abstract要約: 不整合は、予測されたラベルまたは信頼スコアでしばしば観察される。
我々は、このモデルの欠点を強調し、対称分類の不整合を軽減するために整合損失関数を適用した。
その結果,精度の低下を伴わない3つのパラフレーズ検出データセットに対する予測の整合性が改善された。
- 参考スコア(独自算出の注目度): 4.971443651456398
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: While fine-tuning pre-trained models for downstream classification is the
conventional paradigm in NLP, often task-specific nuances may not get captured
in the resultant models. Specifically, for tasks that take two inputs and
require the output to be invariant of the order of the inputs, inconsistency is
often observed in the predicted labels or confidence scores. We highlight this
model shortcoming and apply a consistency loss function to alleviate
inconsistency in symmetric classification. Our results show an improved
consistency in predictions for three paraphrase detection datasets without a
significant drop in the accuracy scores. We examine the classification
performance of six datasets (both symmetric and non-symmetric) to showcase the
strengths and limitations of our approach.
- Abstract(参考訳): 下流分類のための微調整済みモデルが従来のNLPのパラダイムであるが、多くの場合、タスク固有のニュアンスは結果のモデルでは捕捉されない。
具体的には、2つの入力を受け取り、出力が入力の順序の不変性を要求するタスクに対して、予測されたラベルまたは信頼スコアに矛盾がしばしば観測される。
このモデルの欠点を浮き彫りにし、対称分類の不整合を緩和するために一貫性損失関数を適用する。
その結果,精度の低下を伴わない3つのパラフレーズ検出データセットに対する予測の整合性が改善された。
我々は,6つのデータセット(対称と非対称の両方)の分類性能を調べ,このアプローチの長所と限界を明らかにした。
関連論文リスト
- Predicting generalization performance with correctness discriminators [64.00420578048855]
未確認データに対して,金のラベルを必要とせず,精度の上下境界を確立する新しいモデルを提案する。
予測された上境界と下限の間に金の精度が確実に成立する様々なタグ付け、構文解析、意味解析タスクを示す。
論文 参考訳(メタデータ) (2023-11-15T22:43:42Z) - The Decaying Missing-at-Random Framework: Doubly Robust Causal Inference
with Partially Labeled Data [10.021381302215062]
現実のシナリオでは、データ収集の制限によって部分的にラベル付けされたデータセットが生成されることが多く、信頼性の高い因果推論の描画が困難になる。
半パラメトリック(SS)や欠落したデータ文学における従来のアプローチは、これらの複雑さを適切に扱えないため、偏りのある見積もりにつながる可能性がある。
このフレームワークは、高次元設定における欠落した結果に対処し、選択バイアスを考慮に入れます。
論文 参考訳(メタデータ) (2023-05-22T07:37:12Z) - Improving Adaptive Conformal Prediction Using Self-Supervised Learning [72.2614468437919]
我々は、既存の予測モデルの上に自己教師付きプレテキストタスクを持つ補助モデルを訓練し、自己教師付きエラーを付加的な特徴として用いて、非整合性スコアを推定する。
合成データと実データの両方を用いて、効率(幅)、欠陥、共形予測間隔の超過といった付加情報の利点を実証的に実証する。
論文 参考訳(メタデータ) (2023-02-23T18:57:14Z) - Sharing pattern submodels for prediction with missing values [12.981974894538668]
機械学習の多くのアプリケーションでは欠落値は避けられず、トレーニング中もテスト時にも課題が提示される。
パターンサブモデル(パターンサブモデル)と呼ばれる別の手法を提案する。これは、テスト時に欠落した値に対して、予測を堅牢にし、パターンサブモデルの予測力を維持または改善させる。
論文 参考訳(メタデータ) (2022-06-22T15:09:40Z) - Robust Neural Network Classification via Double Regularization [2.41710192205034]
本稿では、分類モデルの複雑さに対するペナルティと、学習観察の最適な再重み付けを組み合わせた、ニューラルネットワークトレーニング損失の新しい二重正則化を提案する。
我々は, (i) MNIST と (ii) CIFAR-10 のニューラルネット分類のための DRFit について, 両者の相違点について実証した。
論文 参考訳(メタデータ) (2021-12-15T13:19:20Z) - Training on Test Data with Bayesian Adaptation for Covariate Shift [96.3250517412545]
ディープニューラルネットワークは、信頼できない不確実性推定で不正確な予測を行うことが多い。
分布シフトの下でのラベルなし入力とモデルパラメータとの明確に定義された関係を提供するベイズモデルを導出する。
本手法は精度と不確実性の両方を向上することを示す。
論文 参考訳(メタデータ) (2021-09-27T01:09:08Z) - Avoiding Inference Heuristics in Few-shot Prompt-based Finetuning [57.4036085386653]
文ペア分類タスクのプロンプトベースモデルでは,語彙重なりに基づく推論の一般的な落とし穴が依然として残っていることを示す。
そこで,プレトレーニングウェイトを保存する正規化を加えることは,この破壊的な微調整の傾向を緩和するのに有効であることを示す。
論文 参考訳(メタデータ) (2021-09-09T10:10:29Z) - Exploiting Sample Uncertainty for Domain Adaptive Person
Re-Identification [137.9939571408506]
各サンプルに割り当てられた擬似ラベルの信頼性を推定・活用し,ノイズラベルの影響を緩和する。
不確実性に基づく最適化は大幅な改善をもたらし、ベンチマークデータセットにおける最先端のパフォーマンスを達成します。
論文 参考訳(メタデータ) (2020-12-16T04:09:04Z) - Asymptotic Behavior of Adversarial Training in Binary Classification [41.7567932118769]
敵の訓練は、敵の攻撃に対する防衛の最先端の方法と考えられている。
実際に成功したにもかかわらず、敵の訓練のパフォーマンスを理解する上でのいくつかの問題は未解決のままである。
2進分類における対角訓練の最小化のための正確な理論的予測を導出する。
論文 参考訳(メタデータ) (2020-10-26T01:44:20Z) - Fundamental Tradeoffs between Invariance and Sensitivity to Adversarial
Perturbations [65.05561023880351]
敵の例は誤分類を引き起こすために作られた悪意のある入力である。
本稿では, 相補的障害モード, 不変性に基づく逆数例について検討する。
感度に基づく攻撃に対する防御は、不変性に基づく攻撃に対するモデルの精度を積極的に損なうことを示す。
論文 参考訳(メタデータ) (2020-02-11T18:50:23Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。