論文の概要: Leveraging Pre-trained Models for Failure Analysis Triplets Generation
- arxiv url: http://arxiv.org/abs/2210.17497v1
- Date: Mon, 31 Oct 2022 17:21:15 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-01 16:15:34.167633
- Title: Leveraging Pre-trained Models for Failure Analysis Triplets Generation
- Title(参考訳): 故障解析トリプレット生成のための事前学習モデルの活用
- Authors: Kenneth Ezukwoke, Anis Hoayek, Mireille Batton-Hubert, Xavier Boucher,
Pascal Gounet and Jerome Adrian
- Abstract要約: 我々は、故障解析トリプレット(FAT)を生成する下流タスクにおいて、トランスフォーマーモデルのような事前訓練された因果言語モデルの注意機構を活用する。
生成事前学習型変換器2(GPT2)は、故障解析三重項生成(FATG)タスクにおいて、他の変換器モデルよりも優れていた。
特に, GPT2(1.5Bパラメータで学習)は, ROUGEにおいて, トレーニング済みBERT, BART, GPT3よりも高い性能を示した。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Pre-trained Language Models recently gained traction in the Natural Language
Processing (NLP) domain for text summarization, generation and
question-answering tasks. This stems from the innovation introduced in
Transformer models and their overwhelming performance compared with Recurrent
Neural Network Models (Long Short Term Memory (LSTM)). In this paper, we
leverage the attention mechanism of pre-trained causal language models such as
Transformer model for the downstream task of generating Failure Analysis
Triplets (FATs) - a sequence of steps for analyzing defected components in the
semiconductor industry. We compare different transformer models for this
generative task and observe that Generative Pre-trained Transformer 2 (GPT2)
outperformed other transformer model for the failure analysis triplet
generation (FATG) task. In particular, we observe that GPT2 (trained on 1.5B
parameters) outperforms pre-trained BERT, BART and GPT3 by a large margin on
ROUGE. Furthermore, we introduce Levenshstein Sequential Evaluation metric
(LESE) for better evaluation of the structured FAT data and show that it
compares exactly with human judgment than existing metrics.
- Abstract(参考訳): 事前訓練された言語モデルは最近、テキスト要約、生成、質問応答タスクのための自然言語処理(NLP)ドメインで注目を集めた。
これはトランスフォーマーモデルに導入されたイノベーションと、リカレントニューラルネットワークモデル(long short term memory (lstm))と比較して圧倒的なパフォーマンスに由来する。
本稿では,半導体産業における欠陥成分分析の一連のステップであるFAT(Failure Analysis Triplets)を生成する下流タスクに対して,Transformerモデルなどの事前学習した因果言語モデルの注意機構を利用する。
この生成タスクの異なる変換器モデルを比較し、生成事前学習変換器2(GPT2)が故障解析三重項生成(FATG)タスクの他の変換器モデルより優れていることを観察する。
特に, GPT2(1.5Bパラメータで学習)は, ROUGEにおいて, トレーニング済みBERT, BART, GPT3よりも高い性能を示した。
さらに,構造化脂肪データの評価にlebenshsteinシーケンシャル評価指標(lese)を導入し,既存の測定値と正確に人間の判断と比較した。
関連論文リスト
- Learning on Transformers is Provable Low-Rank and Sparse: A One-layer Analysis [63.66763657191476]
低ランク計算としての効率的な数値学習と推論アルゴリズムはトランスフォーマーに基づく適応学習に優れた性能を持つことを示す。
我々は、等級モデルが適応性を改善しながら一般化にどのように影響するかを分析する。
適切なマグニチュードベースのテストは,テストパフォーマンスに多少依存している,と結論付けています。
論文 参考訳(メタデータ) (2024-06-24T23:00:58Z) - Human Evaluation of English--Irish Transformer-Based NMT [2.648836772989769]
ベストパフォーマンスのTransformerシステムは、RNNベースのモデルと比較して精度と誤差を著しく低減する。
Google Translateに対してベンチマークを行ったところ、我々の翻訳エンジンは大幅に改善された。
論文 参考訳(メタデータ) (2024-03-04T11:45:46Z) - Efficient GPT Model Pre-training using Tensor Train Matrix
Representation [65.96485282393361]
大規模なトランスフォーマーモデルは数十億のパラメータを特徴としており、デプロイが困難になり、スクラッチからトレーニングコストが禁じられている。
GPT-2アーキテクチャのパラメータ数を削減すべく、完全に接続された層の行列を対応するTrain Matrix(TTM)構造に置き換える。
GPTベースのモデルは最大40%のパラメータを格納し、元のモデルに匹敵するパープレキシティを示す。
論文 参考訳(メタデータ) (2023-06-05T08:38:25Z) - On Robustness of Finetuned Transformer-based NLP Models [11.063628128069736]
CKAとSTIRの2つの指標を用いて、事前訓練された言語モデルと微調整された言語モデル間の変化を特徴付ける。
GPT-2表現はBERTやT5よりも複数の入力摂動に対して堅牢である。
この研究は、人気のあるTransformerベースのモデルの摂動固有の弱点に関する貴重な洞察を提供する。
論文 参考訳(メタデータ) (2023-05-23T18:25:18Z) - Optimizing Non-Autoregressive Transformers with Contrastive Learning [74.46714706658517]
非自己回帰変換器(NAT)は、逐次順序ではなく全ての単語を同時に予測することにより、自動回帰変換器(AT)の推論遅延を低減する。
本稿では,データ分布ではなく,モデル分布からのサンプリングによるモダリティ学習の容易化を提案する。
論文 参考訳(メタデータ) (2023-05-23T04:20:13Z) - Transformer-based approaches to Sentiment Detection [55.41644538483948]
テキスト分類のための4種類の最先端変圧器モデルの性能について検討した。
RoBERTa変換モデルは82.6%のスコアでテストデータセット上で最高のパフォーマンスを示し、品質予測に非常に推奨されている。
論文 参考訳(メタデータ) (2023-03-13T17:12:03Z) - Efficient pre-training objectives for Transformers [84.64393460397471]
本研究はトランスフォーマーモデルにおける高効率事前学習目標について検討する。
マスクトークンの除去と損失時のアウトプット全体の考慮が,パフォーマンス向上に不可欠な選択であることを証明する。
論文 参考訳(メタデータ) (2021-04-20T00:09:37Z) - Bayesian Transformer Language Models for Speech Recognition [59.235405107295655]
トランスフォーマーで表現される最先端のニューラルネットワークモデル(LM)は非常に複雑である。
本稿では,トランスフォーマーLM推定のためのベイズ学習フレームワークを提案する。
論文 参考訳(メタデータ) (2021-02-09T10:55:27Z) - Stress Test Evaluation of Transformer-based Models in Natural Language
Understanding Tasks [3.2442879131520126]
本研究は,自然言語推論(NLI)と質問応答(QA)における3つのトランスフォーマーモデル(RoBERTa,XLNet,BERT)を評価する。
実験の結果,RoBERTa,XLNet,BERTはニューラルネットモデルよりも堅牢であり,NLIタスクとQAタスクの両方のストレステストが可能であることがわかった。
論文 参考訳(メタデータ) (2020-02-14T21:52:41Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。