論文の概要: PSSAT: A Perturbed Semantic Structure Awareness Transferring Method for
Perturbation-Robust Slot Filling
- arxiv url: http://arxiv.org/abs/2208.11508v1
- Date: Wed, 24 Aug 2022 13:01:00 GMT
- ステータス: 処理完了
- システム内更新日: 2022-08-25 12:36:24.275717
- Title: PSSAT: A Perturbed Semantic Structure Awareness Transferring Method for
Perturbation-Robust Slot Filling
- Title(参考訳): PSSAT:摂動ロバストスロット充満のための摂動構造認識伝達法
- Authors: Guanting Dong, Daichi Guo, Liwen Wang, Xuefeng Li, Zechen Wang, Chen
Zeng, Keqing He, Jinzheng Zhao, Hao Lei, Xinyue Cui, Yi Huang, Junlan Feng,
Weiran Xu
- Abstract要約: 既存のスロットフィリングモデルの多くは、トレーニングデータからエンティティとそれに対応するコンテキストの固有のパターンを記憶する傾向がある。
本稿では,摂動-ロバストスロット充填モデルの訓練のための意味認識構造伝達法を提案する。
- 参考スコア(独自算出の注目度): 27.602336774468
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Most existing slot filling models tend to memorize inherent patterns of
entities and corresponding contexts from training data. However, these models
can lead to system failure or undesirable outputs when being exposed to spoken
language perturbation or variation in practice. We propose a perturbed semantic
structure awareness transferring method for training perturbation-robust slot
filling models. Specifically, we introduce two MLM-based training strategies to
respectively learn contextual semantic structure and word distribution from
unsupervised language perturbation corpus. Then, we transfer semantic knowledge
learned from upstream training procedure into the original samples and filter
generated data by consistency processing. These procedures aim to enhance the
robustness of slot filling models. Experimental results show that our method
consistently outperforms the previous basic methods and gains strong
generalization while preventing the model from memorizing inherent patterns of
entities and contexts.
- Abstract(参考訳): 既存のスロット充填モデルは、トレーニングデータからエンティティと対応するコンテキストの固有のパターンを記憶する傾向がある。
しかし、これらのモデルは、実際に発声言語の摂動や変動に晒された場合、システム障害や望ましくないアウトプットにつながる可能性がある。
本稿では,摂動・ロバストスロット充填モデルのトレーニングのための摂動構造認識伝達法を提案する。
具体的には、教師なし言語摂動コーパスから文脈意味構造と単語分布を学習するための2つのMLMベースのトレーニング戦略を導入する。
次に,上流トレーニング手順から学んだ意味知識を元のサンプルに転送し,一貫性処理により生成されたデータをフィルタリングする。
これらの手順はスロット充填モデルのロバスト性を高めることを目的としている。
実験の結果,本手法は従来の基本手法を一貫して上回っており,エンティティやコンテキストの固有パターンを記憶することを防止しつつ,強力な一般化が得られた。
関連論文リスト
- Contextual Biasing to Improve Domain-specific Custom Vocabulary Audio Transcription without Explicit Fine-Tuning of Whisper Model [0.0]
OpenAIのWhisper Automated Speech Recognitionモデルでは、さまざまなデータセットやドメインをまたいだ一般化が優れている。
モデルパラメータを明示的に微調整したり変更したりすることなく、転写精度を向上させる手法を提案する。
論文 参考訳(メタデータ) (2024-10-24T01:58:11Z) - Towards Robust Pruning: An Adaptive Knowledge-Retention Pruning Strategy
for Language Models [35.58379464827462]
本稿では,高密度言語モデルの埋め込み空間と特徴空間を忠実に再現する訓練後プルーニング戦略を提案する。
他の最先端のベースラインと比較して、我々の手法は、SST2、IMDB、AGNewsのデータセット上でBERTによる精度、スパーシリティ、ロバスト性、およびプルーニングコストのバランスが優れていることを示す。
論文 参考訳(メタデータ) (2023-10-19T23:02:29Z) - On Conditional and Compositional Language Model Differentiable Prompting [75.76546041094436]
プロンプトは、下流タスクでうまく機能するために、凍結した事前訓練言語モデル(PLM)を適応するための効果的な方法であることが示されている。
タスク命令や入力メタデータを連続的なプロンプトに変換することを学習する新しいモデル Prompt Production System (PRopS) を提案する。
論文 参考訳(メタデータ) (2023-07-04T02:47:42Z) - Syntactically Robust Training on Partially-Observed Data for Open
Information Extraction [25.59133746149343]
オープン情報抽出モデルは十分な監督力を持った有望な結果を示している。
そこで本研究では,統語論的に頑健な学習フレームワークを提案する。
論文 参考訳(メタデータ) (2023-01-17T12:39:13Z) - Autoregressive Structured Prediction with Language Models [73.11519625765301]
本稿では, PLM を用いた自己回帰的手法を用いて, モデル構造を行動列として記述する。
我々のアプローチは、私たちが見てきた全ての構造化予測タスクにおいて、新しい最先端を実現する。
論文 参考訳(メタデータ) (2022-10-26T13:27:26Z) - Improving Meta-learning for Low-resource Text Classification and
Generation via Memory Imitation [87.98063273826702]
本稿では,メモリ模倣メタラーニング(MemIML)手法を提案する。
本手法の有効性を証明するために理論的解析を行った。
論文 参考訳(メタデータ) (2022-03-22T12:41:55Z) - Does Pre-training Induce Systematic Inference? How Masked Language
Models Acquire Commonsense Knowledge [91.15301779076187]
プレトレーニング中のBERTモデルのミニバッチに言語知識を導入し、モデルがサポート対象の推論にどの程度うまく一般化するかを評価する。
一般化は事前学習の過程では改善せず, 帰納的, 体系的推論ではなく, 表面的, 共起的パターンからコモンセンス知識が獲得されることが示唆された。
論文 参考訳(メタデータ) (2021-12-16T03:13:04Z) - SLM: Learning a Discourse Language Representation with Sentence
Unshuffling [53.42814722621715]
談話言語表現を学習するための新しい事前学習目的である文レベル言語モデリングを導入する。
本モデルでは,この特徴により,従来のBERTの性能が大幅に向上することを示す。
論文 参考訳(メタデータ) (2020-10-30T13:33:41Z) - Unsupervised Paraphrasing with Pretrained Language Models [85.03373221588707]
教師なし環境で,事前学習した言語モデルを用いて高品質なパラフレーズを生成する訓練パイプラインを提案する。
提案手法は,タスク適応,自己スーパービジョン,動的ブロッキング(Dynamic Blocking)という新しい復号アルゴリズムから構成される。
提案手法は,Quora Question PairとParaNMTの両方のデータセット上で,最先端の性能を達成できることを示す。
論文 参考訳(メタデータ) (2020-10-24T11:55:28Z) - Systematic Generalization on gSCAN with Language Conditioned Embedding [19.39687991647301]
体系的一般化とは、学習アルゴリズムが学習した振る舞いを目に見えない状況に外挿する能力を指す。
本稿では,入力自然言語を条件とした動的メッセージパッシングによるオブジェクトの文脈的埋め込みを学習する手法を提案する。
論文 参考訳(メタデータ) (2020-09-11T17:35:05Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。