論文の概要: BERTVision -- A Parameter-Efficient Approach for Question Answering
- arxiv url: http://arxiv.org/abs/2202.12210v1
- Date: Thu, 24 Feb 2022 17:16:25 GMT
- ステータス: 処理完了
- システム内更新日: 2022-02-25 16:51:04.365717
- Title: BERTVision -- A Parameter-Efficient Approach for Question Answering
- Title(参考訳): BERTVision -- 質問応答のためのパラメータ効率の良いアプローチ
- Authors: Siduo Jiang, Cristopher Benge, William Casey King
- Abstract要約: 本稿では,BERTファインチューニングの必要性を大幅に低減する,質問応答に対するパラメータ効率の高い手法を提案する。
提案手法では,各BERTトランス層の隠れ状態アクティベーションから得られる情報を用いて,典型的なBERT推論時に破棄される。
実験の結果,本手法は多岐にわたるQAだけでなく,分類にも有効であり,より広い範囲のタスクに向いていることが示唆された。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We present a highly parameter efficient approach for Question Answering that
significantly reduces the need for extended BERT fine-tuning. Our method uses
information from the hidden state activations of each BERT transformer layer,
which is discarded during typical BERT inference. Our best model achieves
maximal BERT performance at a fraction of the training time and GPU or TPU
expense. Performance is further improved by ensembling our model with BERTs
predictions. Furthermore, we find that near optimal performance can be achieved
for QA span annotation using less training data. Our experiments show that this
approach works well not only for span annotation, but also for classification,
suggesting that it may be extensible to a wider range of tasks.
- Abstract(参考訳): 我々は,拡張bert微調整の必要性を著しく低減した質問応答に対する高いパラメータ効率のアプローチを提案する。
提案手法では,各BERTトランス層の隠れ状態アクティベーションから得られる情報を用いて,典型的なBERT推論時に破棄される。
我々の最良のモデルは、トレーニング時間とGPUまたはTPU費用のごく一部で、最大BERT性能を達成する。
BERTの予測でモデルを組み立てることで、パフォーマンスがさらに向上します。
さらに,より少ないトレーニングデータを用いて,qaスパンアノテーションの最適性能をほぼ達成できることを見出した。
私たちの実験では、このアプローチは、スパンアノテーションだけでなく、分類に対してもうまく機能していることを示し、より幅広いタスクに拡張可能であることを示唆しています。
関連論文リスト
- SetBERT: Enhancing Retrieval Performance for Boolean Logic and Set Operation Queries [0.8192907805418583]
本稿では,設定操作とブール論理クエリに対するクエリ埋め込みを強化するための,細調整BERTベースのモデルであるSetBERTを紹介する。
実験の結果, SetBERT-base は BERT-base を大幅に上回るだけでなく, より大型の BERT-large モデルに匹敵する性能が得られることがわかった。
論文 参考訳(メタデータ) (2024-06-25T05:14:54Z) - DPBERT: Efficient Inference for BERT based on Dynamic Planning [11.680840266488884]
既存の入力適応推論手法ではBERTの構造を十分に活用できない。
本稿では,BERTの推論過程を高速化する新しい微調整戦略であるBERTにおける動的計画法を提案する。
提案手法は,98%の精度を維持しながら遅延を75%まで低減し,最先端の入力適応方式に比べて高精度なトレードオフを実現する。
論文 参考訳(メタデータ) (2023-07-26T07:18:50Z) - BiBERT: Accurate Fully Binarized BERT [69.35727280997617]
BiBERTは、パフォーマンスボトルネックを取り除くために、正確に2項化されたBERTである。
提案手法は,FLOPとモデルサイズで56.3回,31.2回節約できる。
論文 参考訳(メタデータ) (2022-03-12T09:46:13Z) - PromptBERT: Improving BERT Sentence Embeddings with Prompts [95.45347849834765]
本稿では,トークン埋め込みのバイアスを低減し,元のBERT層をより効果的にするためのプロンプトベースの文埋め込み手法を提案する。
また,教師なし設定と教師なし設定とのパフォーマンスギャップを大幅に短縮するテンプレート認知技術により,教師なし学習の新たな目標を提案する。
我々の微調整手法は教師なし設定と教師なし設定の両方において最先端のSimCSEよりも優れている。
論文 参考訳(メタデータ) (2022-01-12T06:54:21Z) - Finding the Winning Ticket of BERT for Binary Text Classification via
Adaptive Layer Truncation before Fine-tuning [7.797987384189306]
BERTをベースとしたモデルのサイズの異なるモデルを構築し、それらの予測を8つのバイナリ分類タスクで比較する。
結果は、完全なモデルよりもパフォーマンスが良い小さなサブネットワークが存在することを示している。
論文 参考訳(メタデータ) (2021-11-22T02:22:47Z) - To BERT or Not to BERT: Comparing Task-specific and Task-agnostic
Semi-Supervised Approaches for Sequence Tagging [46.62643525729018]
クロスビュートレーニング(CVT)とタスクに依存しないBERTをドメインやタスクに関連する英語データを含む複数の設定で比較する。
本研究では,一連のタグ付けタスクにおいてBERTと同じような性能を達成し,経済的・環境的影響を低減できることを示す。
論文 参考訳(メタデータ) (2020-10-27T04:03:47Z) - TernaryBERT: Distillation-aware Ultra-low Bit BERT [53.06741585060951]
本稿では,細調整されたBERTモデルの重みを3元化するternaryBERTを提案する。
GLUEベンチマークとSQuADの実験により,提案した TernaryBERT が他のBERT量子化法より優れていることが示された。
論文 参考訳(メタデータ) (2020-09-27T10:17:28Z) - DeeBERT: Dynamic Early Exiting for Accelerating BERT Inference [69.93692147242284]
BERTのような大規模事前訓練型言語モデルは、NLPアプリケーションに大幅な改善をもたらした。
本稿では, BERT推論を高速化するために, 単純だが効果的な手法であるDeeBERTを提案する。
実験の結果、DeeBERTはモデル品質の低下を最小限に抑えながら、最大40%の推論時間を節約できることがわかった。
論文 参考訳(メタデータ) (2020-04-27T17:58:05Z) - Improving BERT Fine-Tuning via Self-Ensemble and Self-Distillation [84.64004917951547]
BERTのような微調整済みの言語モデルは、NLPにおいて効果的な方法となっている。
本稿では, BERTの微細調整を, 自己組織化と自己蒸留の2つの効果的なメカニズムで改善する。
論文 参考訳(メタデータ) (2020-02-24T16:17:12Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。