論文の概要: Generalized Multiple Intent Conditioned Slot Filling
- arxiv url: http://arxiv.org/abs/2305.11023v1
- Date: Thu, 18 May 2023 15:04:52 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-19 14:38:23.103241
- Title: Generalized Multiple Intent Conditioned Slot Filling
- Title(参考訳): 汎用マルチインテント条件付きスロットフィリング
- Authors: Harshil Shah, Arthur Wilcke, Marius Cobzarenco, Cristi Cobzarenco,
Edward Challis, David Barber
- Abstract要約: プリエントスロットフィリングメソッドは、メッセージ内で各インテントタイプが1回以上発生できないと仮定する。
本研究では,メッセージ中のユニークな意図の制約を取り除き,スロットフィリングを一般化する。
私たちはDBpediaと既存のスロットフィリングデータセットを組み合わせることで、事前トレーニングデータセットを作成します。
両方のトレーニングデータセットのパフォーマンスが向上し、トレーニング中に見えないインテントタイプにモデルを一般化できることが分かりました。
- 参考スコア(独自算出の注目度): 13.627966356726619
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Natural language understanding includes the tasks of intent detection
(identifying a user's objectives) and slot filling (extracting the entities
relevant to those objectives). Prior slot filling methods assume that each
intent type cannot occur more than once within a message, however this is often
not a valid assumption for real-world settings. In this work, we generalize
slot filling by removing the constraint of unique intents in a message. We cast
this as a JSON generation task and approach it using a language model. We
create a pre-training dataset by combining DBpedia and existing slot filling
datasets that we convert for JSON generation. We also generate an in-domain
dataset using GPT-3. We train T5 models for this task (with and without
exemplars in the prompt) and find that both training datasets improve
performance, and that the model is able to generalize to intent types not seen
during training.
- Abstract(参考訳): 自然言語理解には、意図検出(ユーザの目的を特定する)とスロットフィリング(それらの目的に関連するエンティティを抽出する)のタスクが含まれる。
プリエントスロットフィリングメソッドは、メッセージ内で各インテントタイプが1回以上発生できないと仮定するが、これは実世界の設定に有効な仮定ではないことが多い。
本稿では,メッセージ中の一意なインテントの制約を取り除いてスロット充填を一般化する。
これをJSON生成タスクとしてキャストし、言語モデルを使ってアプローチします。
dbpediaと既存のスロット充填データセットを組み合わせることで、トレーニング済みデータセットを作成し、json生成に変換します。
また,GPT-3を用いてドメイン内データセットを生成する。
このタスクのためのt5モデルを(プロンプトの例なしで)トレーニングし、両方のトレーニングデータセットがパフォーマンスを改善し、トレーニング中に見えないインテントタイプに一般化できることを確認します。
関連論文リスト
- Going beyond research datasets: Novel intent discovery in the industry
setting [60.90117614762879]
本稿では,大規模なeコマースプラットフォームに展開する意図発見パイプラインを改善する手法を提案する。
ドメイン内データに基づく事前学習型言語モデルの利点を示す。
また,クラスタリングタスクの微調整中に,実生活データセットの会話構造(質問と回答)を利用するための最善の方法も考案した。
論文 参考訳(メタデータ) (2023-05-09T14:21:29Z) - Generative Entity Typing with Curriculum Learning [18.43562065432877]
本稿では,新しい生成エンティティタイピング(GET)パラダイムを提案する。
エンティティが言及したテキストが与えられた場合、エンティティがテキストで果たす役割の複数の型は、事前訓練された言語モデルで生成される。
我々の実験は、最先端エンティティ型付けモデルよりもGETモデルの方が優れていることを正当化します。
論文 参考訳(メタデータ) (2022-10-06T13:32:50Z) - Generative Conversational Networks [67.13144697969501]
本稿では,対話エージェントが独自のラベル付き学習データを生成することを学習する,生成会話ネットワーク(Generative Conversational Networks)というフレームワークを提案する。
そこで本研究では,シードデータから学習したベースラインモデルに対して,意図検出が平均35%,スロットタグが平均21%向上したことを示す。
論文 参考訳(メタデータ) (2021-06-15T23:19:37Z) - Intent detection and slot filling for Vietnamese [6.17059264011429]
ベトナムにおける最初の公的な意図検出とスロット充足データセットを提案する。
また,意図検出とスロット充填のための統合モデルを提案する。
ベトナムのデータセットによる実験結果から,提案手法はJointBERT+CRFよりも有意に優れていた。
論文 参考訳(メタデータ) (2021-04-05T17:19:42Z) - KGPT: Knowledge-Grounded Pre-Training for Data-to-Text Generation [100.79870384880333]
知識に富んだテキストを生成するための知識基盤事前学習(KGPT)を提案する。
我々は、その効果を評価するために、3つの設定、すなわち、完全教師付き、ゼロショット、少数ショットを採用します。
ゼロショット設定では、WebNLG上で30 ROUGE-L以上を達成するが、他の全てのベースラインは失敗する。
論文 参考訳(メタデータ) (2020-10-05T19:59:05Z) - Intent Detection with WikiHow [28.28719498563396]
私たちのモデルは、wikiHowでトレーニングされているため、多くのアクションから幅広い目的を予測できます。
我々のモデルは、Snipsデータセット、Guided Dialogueデータセット、およびFacebookの多言語ダイアログデータセットの3つの言語で最先端の結果を得る。
論文 参考訳(メタデータ) (2020-09-12T12:53:47Z) - Coach: A Coarse-to-Fine Approach for Cross-domain Slot Filling [65.09621991654745]
クロスドメインスロットフィリングはタスク指向ダイアログシステムにおいて重要なタスクである。
クロスドメインスロットフィリングのための粗粒度アプローチ(Coach)を提案する。
実験結果から,本モデルはスロット充填における最先端手法よりも優れていた。
論文 参考訳(メタデータ) (2020-04-24T13:07:12Z) - AGIF: An Adaptive Graph-Interactive Framework for Joint Multiple Intent
Detection and Slot Filling [69.59096090788125]
本稿では,多目的検出とスロットフィリングを併用する適応グラフ対話フレームワーク(AGIF)を提案する。
スロットとインテントの強い相関関係をモデル化するために,インテント-スロットグラフ相互作用層を導入する。
このような相互作用層が各トークンに適応的に適用され、関連する意図情報を自動抽出する利点がある。
論文 参考訳(メタデータ) (2020-04-21T15:07:34Z) - Exploring Versatile Generative Language Model Via Parameter-Efficient
Transfer Learning [70.81910984985683]
本稿では,1つの大規模事前学習モデルを用いて,複数のダウンストリーム生成タスクを同時に微調整する効果的な方法を提案する。
5つの多様な言語生成タスクの実験は、各タスクに2-3%のパラメータを追加するだけで、モデル全体の微調整性能を維持または改善できることを示している。
論文 参考訳(メタデータ) (2020-04-08T06:18:44Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。