論文の概要: LINGUIST: Language Model Instruction Tuning to Generate Annotated
Utterances for Intent Classification and Slot Tagging
- arxiv url: http://arxiv.org/abs/2209.09900v1
- Date: Tue, 20 Sep 2022 17:59:08 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-21 17:26:19.116104
- Title: LINGUIST: Language Model Instruction Tuning to Generate Annotated
Utterances for Intent Classification and Slot Tagging
- Title(参考訳): lingUIST: インテント分類とスロットタギングのためのアノテーション付き発話を生成するための言語モデルインストラクションチューニング
- Authors: Andy Rosenbaum, Saleh Soltan, Wael Hamza, Yannick Versley, Markus
Boese
- Abstract要約: 分類とスロットタギングのための注釈付きデータを生成する lingUIST (IC+ST) について述べる。
SNIPSデータセットの10ショットの新規な意図設定では、lingUISTは最先端のアプローチを超越している。
我々は、多言語インテントおよびスロットラベルデータ生成の出力を制御するために、大規模セク2セックモデルの命令微調整を初めて実施する。
- 参考スコア(独自算出の注目度): 6.1297730033734945
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We present LINGUIST, a method for generating annotated data for Intent
Classification and Slot Tagging (IC+ST), via fine-tuning AlexaTM 5B, a
5-billion-parameter multilingual sequence-to-sequence (seq2seq) model, on a
flexible instruction prompt. In a 10-shot novel intent setting for the SNIPS
dataset, LINGUIST surpasses state-of-the-art approaches (Back-Translation and
Example Extrapolation) by a wide margin, showing absolute improvement for the
target intents of +1.9 points on IC Recall and +2.5 points on ST F1 Score. In
the zero-shot cross-lingual setting of the mATIS++ dataset, LINGUIST
out-performs a strong baseline of Machine Translation with Slot Alignment by
+4.14 points absolute on ST F1 Score across 6 languages, while matching
performance on IC. Finally, we verify our results on an internal large-scale
multilingual dataset for conversational agent IC+ST and show significant
improvements over a baseline which uses Back-Translation, Paraphrasing and Slot
Catalog Resampling. To our knowledge, we are the first to demonstrate
instruction fine-tuning of a large-scale seq2seq model to control the outputs
of multilingual intent- and slot-labeled data generation.
- Abstract(参考訳): フレキシブルな命令プロンプトに基づいて,5ビリオンパラメトリックなシーケンス・ツー・シーケンス(seq2seq)モデルであるAlexaTM 5Bを微調整することで,Intent Classification and Slot Tagging (IC+ST) の注釈付きデータを生成する lingUIST を提案する。
SNIPSデータセットの10ショットの新規意図設定では、lingUISTは最先端のアプローチ(Back-Translation and Example Extrapolation)を広範囲に越え、ICリコールの+1.9点、ST F1スコアの2.5点の目標意図を絶対的に改善した。
mATIS++データセットのゼロショットのクロスランガル設定では、lingUISTは、Slot Alignmentによるマシン翻訳の強力なベースラインを、ST F1 Scoreの6言語で+4.14ポイントで上回り、ICのパフォーマンスにマッチする。
最後に,会話エージェントIC+STの内部大規模多言語データセットの検証を行い,Back-Translation, Paraphrasing, Slot Catalog Resamplingを用いたベースライン上での大幅な改善を示す。
我々の知る限り、我々は、多言語インテントおよびスロットラベルデータ生成の出力を制御するために、大規模なSeq2seqモデルの命令微調整を初めて行った。
関連論文リスト
- sPhinX: Sample Efficient Multilingual Instruction Fine-Tuning Through N-shot Guided Prompting [29.63634707674839]
本稿では,多言語合成指導調律データセット sPhinX を作成するための新しいレシピを提案する。
sPhinXは、命令応答対を英語から50言語に選択的に翻訳することで生成される。
本研究では,2つの最先端モデルであるMistral-7BとPhi-Smallを微調整するためにsPhinxの有効性を検証した。
論文 参考訳(メタデータ) (2024-07-13T13:03:45Z) - Multi-Sentence Grounding for Long-term Instructional Video [63.27905419718045]
大規模インストラクショナルデータセットを記述するための,自動でスケーラブルなパイプラインを確立することを目的としている。
複数の記述ステップを監督する高品質なビデオテキストデータセット、HowToStepを構築した。
論文 参考訳(メタデータ) (2023-12-21T17:28:09Z) - Improving Domain-Specific Retrieval by NLI Fine-Tuning [64.79760042717822]
本稿では、自然言語推論(NLI)データの微調整の可能性を調べ、情報検索とランキングを改善する。
コントラスト損失とNLIデータを利用した教師あり手法により細調整された単言語文エンコーダと多言語文エンコーダを併用する。
この結果から,NLIの微調整によりタスクおよび言語間のモデルの性能が向上し,単言語モデルと多言語モデルが改良される可能性が示唆された。
論文 参考訳(メタデータ) (2023-08-06T12:40:58Z) - Translation and Fusion Improves Zero-shot Cross-lingual Information Extraction [18.926993352330797]
本稿では,低リソース言語データの英語翻訳をモデルに微調整したフレームワークであるTransFusionを提案する。
GoLLIE-TFは、IEタスクのための言語間命令チューニング LLM であり、ハイソース言語と低リソース言語のパフォーマンスギャップを埋めるように設計されている。
論文 参考訳(メタデータ) (2023-05-23T01:23:22Z) - Evaluating Byte and Wordpiece Level Models for Massively Multilingual
Semantic Parsing [3.431659287330068]
バイトレベル(ByT5)とワードピースベース(mT5)をMASSIVE多言語意味解析データセットの51言語におけるシーケンスモデルと比較する。
すべての言語からのゴールドデータに基づいてトレーニングされたモデルに対して、正確なマッチング精度のギャップを5ポイントに縮めることができます。
論文 参考訳(メタデータ) (2022-12-14T13:48:32Z) - Prompt-Tuning Can Be Much Better Than Fine-Tuning on Cross-lingual
Understanding With Multilingual Language Models [95.32691891392903]
本稿では,プロンプトチューニングを用いた様々なNLUタスクの言語間評価を行い,それを微調整と比較する。
その結果, アクシデントチューニングは, データセット間の微調整よりもはるかに優れた言語間移動を実現することがわかった。
論文 参考訳(メタデータ) (2022-10-22T05:48:02Z) - CROP: Zero-shot Cross-lingual Named Entity Recognition with Multilingual
Labeled Sequence Translation [113.99145386490639]
言語間NERは、整列した言語間表現や機械翻訳結果を通じて、言語間で知識を伝達することができる。
ゼロショット言語間NERを実現するために,クロスランガル・エンティティ・プロジェクション・フレームワーク(CROP)を提案する。
多言語ラベル付きシーケンス翻訳モデルを用いて、タグ付けされたシーケンスをターゲット言語に投影し、ターゲットの原文にラベル付けする。
論文 参考訳(メタデータ) (2022-10-13T13:32:36Z) - OneAligner: Zero-shot Cross-lingual Transfer with One Rich-Resource
Language Pair for Low-Resource Sentence Retrieval [91.76575626229824]
文検索タスク用に特別に設計されたアライメントモデルであるOneAlignerを提案する。
大規模並列多言語コーパス(OPUS-100)の全ての言語ペアで訓練すると、このモデルは最先端の結果が得られる。
実験結果から,文アライメントタスクの性能はモノリンガルおよび並列データサイズに大きく依存することがわかった。
論文 参考訳(メタデータ) (2022-05-17T19:52:42Z) - Sequence Model with Self-Adaptive Sliding Window for Efficient Spoken
Document Segmentation [22.6548277172532]
段落分割の正確かつ効率的な自己適応的スライディングウインドウを用いたシーケンスモデルを提案する。
また,音声情報を活用する手法を提案し,ASR誤りに対する音声文書のセグメンテーションの堅牢性を大幅に向上させる。
論文 参考訳(メタデータ) (2021-07-20T06:44:13Z) - Explicit Alignment Objectives for Multilingual Bidirectional Encoders [111.65322283420805]
本稿では,多言語エンコーダAMBER(Aligned Multilingual Bi-directional EncodeR)の学習方法を提案する。
AMBERは、異なる粒度で多言語表現を整列する2つの明示的なアライメント目標を使用して、追加の並列データに基づいて訓練される。
実験結果から、AMBERは、シーケンスタグ付けで1.1平均F1スコア、XLMR-大規模モデル上での検索で27.3平均精度を得ることがわかった。
論文 参考訳(メタデータ) (2020-10-15T18:34:13Z) - MTOP: A Comprehensive Multilingual Task-Oriented Semantic Parsing
Benchmark [31.91964553419665]
我々はMTOPと呼ばれる新しい多言語データセットを提案し、11ドメインの6言語で100kの注釈付き発話を合成する。
既存の2つの多言語データセットに対して、Slot F1上の+6.3ポイントの平均的な改善を、実験で報告された最良の結果よりも達成する。
本稿では,事前学習モデルと自動翻訳とアライメントを組み合わせたゼロショット性能と,スロットラベル投影におけるノイズ低減のための遠隔監視手法を提案する。
論文 参考訳(メタデータ) (2020-08-21T07:02:11Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。