論文の概要: Sensitivity Analysis on Transferred Neural Architectures of BERT and
GPT-2 for Financial Sentiment Analysis
- arxiv url: http://arxiv.org/abs/2207.03037v1
- Date: Thu, 7 Jul 2022 01:38:07 GMT
- ステータス: 処理完了
- システム内更新日: 2022-07-09 04:22:51.175997
- Title: Sensitivity Analysis on Transferred Neural Architectures of BERT and
GPT-2 for Financial Sentiment Analysis
- Title(参考訳): 金融感情分析のためのbertおよびgpt-2のトランスファーニューラルアーキテクチャの感度解析
- Authors: Tracy Qian, Andy Xie, Camille Bruckmann
- Abstract要約: 本稿では,事前学習したGPT-2モデルとBERTモデルを用いて,トランスファーニューラルアーキテクチャの性能と感度について検討する。
また, GPT-2 と BERT の初期レイヤには,維持すべき必須ワードパターン情報が含まれていることも明らかである。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The explosion in novel NLP word embedding and deep learning techniques has
induced significant endeavors into potential applications. One of these
directions is in the financial sector. Although there is a lot of work done in
state-of-the-art models like GPT and BERT, there are relatively few works on
how well these methods perform through fine-tuning after being pre-trained, as
well as info on how sensitive their parameters are. We investigate the
performance and sensitivity of transferred neural architectures from
pre-trained GPT-2 and BERT models. We test the fine-tuning performance based on
freezing transformer layers, batch size, and learning rate. We find the
parameters of BERT are hypersensitive to stochasticity in fine-tuning and that
GPT-2 is more stable in such practice. It is also clear that the earlier layers
of GPT-2 and BERT contain essential word pattern information that should be
maintained.
- Abstract(参考訳): 新たなnlpワード埋め込みとディープラーニング技術の爆発は、潜在的な応用に多大な貢献をもたらした。
これらの方向の1つは金融セクターにある。
GPTやBERTのような最先端のモデルでは多くの作業が行われているが、これらの手法が事前トレーニング後の微調整によってどのように機能するか、パラメータがどれほど敏感であるかに関する情報は比較的少ない。
事前学習したgpt-2およびbertモデルを用いたトランスファーニューラルアーキテクチャの性能と感度について検討した。
冷凍変圧器層,バッチサイズ,学習率に基づいて微調整性能を検証した。
BERTのパラメータは微調整において確率性に過敏であり, GPT-2はより安定である。
また, GPT-2 と BERT の初期レイヤには,維持すべき必須ワードパターン情報が含まれていることも明らかである。
関連論文リスト
- Selecting Between BERT and GPT for Text Classification in Political Science Research [4.487884986288122]
低データシナリオにおけるBERTモデルとGPTモデルの有効性を評価する。
パフォーマンス、使いやすさ、コストの観点から、これらのアプローチを比較して結論付けます。
論文 参考訳(メタデータ) (2024-11-07T07:29:39Z) - BERT vs GPT for financial engineering [0.0]
論文は、これらのモデルがニュースイベントから感情を判断する方法を示すために、いくつかのTransformerモデルをベンチマークする。
細調整されたBERTモデルは,細調整されたGPTモデルやバニラGPTモデルよりも優れていることがわかった。
論文 参考訳(メタデータ) (2024-04-24T11:30:04Z) - Sensi-BERT: Towards Sensitivity Driven Fine-Tuning for
Parameter-Efficient BERT [6.029590006321152]
本稿では、下流タスクのための感度駆動効率の良いBERTモデルの微調整であるSensi-BERTを提案する。
実験の結果,MNLI,QQP,QNLI,SST-2,SQuADなどの下流タスクに対するSensi-BERTの有効性が示された。
論文 参考訳(メタデータ) (2023-07-14T17:24:15Z) - Strong Baselines for Parameter Efficient Few-Shot Fine-tuning [50.83426196335385]
FSC (Few-shot Classification) は、事前訓練(メタトレーニング)フェーズの後にクラス毎にいくつかの例を与えられた新しいクラスを学習する。
近年の研究では、新しいテストクラスで事前訓練された視覚変換器(ViT)を微調整することが、FSCにとって強力なアプローチであることが示されている。
しかし、微調整のViTは、時間、計算、ストレージに費用がかかる。
これにより、Transformerのパラメータのごく一部だけを微調整するPEFT法が考案された。
論文 参考訳(メタデータ) (2023-04-04T16:14:39Z) - Exploring Extreme Parameter Compression for Pre-trained Language Models [45.80044281531393]
本研究は,事前学習言語モデル(PLM)の圧縮率の増大について検討する。
圧縮時の効率と効率を改善するために, 2つの分解・再構成プロトコルを提案する。
小さなバージョンではBERTベースが96.7%、エンコーダパラメータが1/48、推論が2.7倍高速になる。
論文 参考訳(メタデータ) (2022-05-20T09:16:55Z) - BiBERT: Accurate Fully Binarized BERT [69.35727280997617]
BiBERTは、パフォーマンスボトルネックを取り除くために、正確に2項化されたBERTである。
提案手法は,FLOPとモデルサイズで56.3回,31.2回節約できる。
論文 参考訳(メタデータ) (2022-03-12T09:46:13Z) - Fine-Tuning Large Neural Language Models for Biomedical Natural Language
Processing [55.52858954615655]
バイオメディカルNLPの微調整安定性に関する系統的研究を行った。
我々は、特に低リソース領域において、微調整性能は事前トレーニング設定に敏感であることを示した。
これらの技術は低リソースバイオメディカルNLPアプリケーションの微調整性能を大幅に向上させることができることを示す。
論文 参考訳(メタデータ) (2021-12-15T04:20:35Z) - DSEE: Dually Sparsity-embedded Efficient Tuning of Pre-trained Language
Models [152.29364079385635]
事前訓練されたモデルが大きくなればなるほど、微調整のプロセスは時間がかかり、計算コストがかかる可能性がある。
本稿では,重み更新と最終モデルの重み付けに先立って,疎度を活用することで,資源・パラメータ効率の微調整を行うフレームワークを提案する。
提案するフレームワークは,Dually Sparsity-Embeded Efficient Tuning (DSEE)と呼ばれ,パラメータ効率のよい微調整とリソース効率の推論という2つの重要な目標を達成することを目的としている。
論文 参考訳(メタデータ) (2021-10-30T03:29:47Z) - Kronecker Decomposition for GPT Compression [8.60086973058282]
GPTは自動回帰トランスフォーマーベースの事前学習言語モデルであり、自然言語処理(NLP)分野において多くの注目を集めている。
GPTの性能は優れているが、GPTはこのモデルを限られた計算能力やメモリを持つデバイスに展開することを非常に禁じることができる。
本研究では, GPT-22モデルの線形写像を圧縮するためにKronecker分解を用いる。
論文 参考訳(メタデータ) (2021-10-15T15:28:39Z) - TernaryBERT: Distillation-aware Ultra-low Bit BERT [53.06741585060951]
本稿では,細調整されたBERTモデルの重みを3元化するternaryBERTを提案する。
GLUEベンチマークとSQuADの実験により,提案した TernaryBERT が他のBERT量子化法より優れていることが示された。
論文 参考訳(メタデータ) (2020-09-27T10:17:28Z) - Improving BERT Fine-Tuning via Self-Ensemble and Self-Distillation [84.64004917951547]
BERTのような微調整済みの言語モデルは、NLPにおいて効果的な方法となっている。
本稿では, BERTの微細調整を, 自己組織化と自己蒸留の2つの効果的なメカニズムで改善する。
論文 参考訳(メタデータ) (2020-02-24T16:17:12Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。