論文の概要: Joint model for intent and entity recognition
- arxiv url: http://arxiv.org/abs/2109.03221v1
- Date: Tue, 7 Sep 2021 17:50:11 GMT
- ステータス: 処理完了
- システム内更新日: 2021-09-08 14:41:49.472541
- Title: Joint model for intent and entity recognition
- Title(参考訳): 意図と実体認識のための結合モデル
- Authors: Petr Lorenc
- Abstract要約: 個々のタスクを個々の問題として扱うことは、トレーニングリソースを無駄にする可能性がある。
インテントとエンティティ認識を1つのシステムに組み合わせた新しいモデルは、両方のタスクでより良いメトリクスを実現しています。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The semantic understanding of natural dialogues composes of several parts.
Some of them, like intent classification and entity detection, have a crucial
role in deciding the next steps in handling user input. Handling each task as
an individual problem can be wasting of training resources, and also each
problem can benefit from each other. This paper tackles these problems as one.
Our new model, which combine intent and entity recognition into one system, is
achieving better metrics in both tasks with lower training requirements than
solving each task separately. We also optimize the model based on the inputs.
- Abstract(参考訳): 自然対話の意味理解は、いくつかの部分からなる。
インテント分類やエンティティ検出など,ユーザ入力を処理するための次のステップを決定する上で重要な役割を担っているものもあります。
個々のタスクを個々の問題として扱うことは、トレーニングリソースを無駄にし、各タスクは互いに恩恵を受けることができる。
本稿ではこれらの問題を1つとして扱う。
意図とエンティティ認識を1つのシステムに統合した新しいモデルは、各タスクを個別に解決するよりも、低いトレーニング要件で両方のタスクでより良いメトリクスを達成しています。
また、入力に基づいてモデルを最適化する。
関連論文リスト
- Merging Multi-Task Models via Weight-Ensembling Mixture of Experts [64.94129594112557]
異なるタスクでトレーニングされたTransformerベースのモデルを単一の統一モデルにマージすることで、すべてのタスクを同時に実行できる。
従来の手法は、タスク演算によって例示され、効率的かつスケーラブルであることが証明されている。
本稿では,Transformer層をMoEモジュールにアップスケーリングしながら,ほとんどのパラメータをマージすることを提案する。
論文 参考訳(メタデータ) (2024-02-01T08:58:57Z) - Towards Model-Based Data Acquisition for Subjective Multi-Task NLP
Problems [12.38430125789305]
マルチタスクシナリオにおける各テキストに対して個別にアノテートされたタスクの選択を可能にする新しいモデルベースアプローチを提案する。
3つのデータセット、数十のNLPタスク、数千のアノテーションによる実験により、我々の手法は、知識の喪失を無視できるアノテーションの数を最大40%削減できることを示した。
論文 参考訳(メタデータ) (2023-12-13T15:03:27Z) - Musketeer: Joint Training for Multi-task Vision Language Model with Task Explanation Prompts [75.75548749888029]
本稿では,全てのタスクに対してパラメータを共同で訓練し,複数の異種タスク間で完全に共有する視覚言語モデルを提案する。
単一のモデルで、Musteteerは単一のタスクでトレーニングされた強いベースラインに匹敵する結果を得る。
論文 参考訳(メタデータ) (2023-05-11T17:57:49Z) - Neural Coreference Resolution based on Reinforcement Learning [53.73316523766183]
コアレゾリューションシステムは2つのサブタスクを解決する必要がある。
ひとつのタスクは、潜在的な言及のすべてを検出することであり、もう1つは、可能な言及ごとに前者のリンクを学習することである。
本稿では,アクターをベースとした強化学習型ニューラルコア参照分解システムを提案する。
論文 参考訳(メタデータ) (2022-12-18T07:36:35Z) - Multi-task Bias-Variance Trade-off Through Functional Constraints [102.64082402388192]
マルチタスク学習は、多様なタスクによく機能する関数の集合を取得することを目的としている。
本稿では,2つの極端な学習シナリオ,すなわちすべてのタスクに対する単一関数と,他のタスクを無視するタスク固有関数から直感を抽出する。
本稿では,集中関数に対するドメイン固有解を強制する制約付き学習定式化を導入する。
論文 参考訳(メタデータ) (2022-10-27T16:06:47Z) - Coarse-to-Fine: Hierarchical Multi-task Learning for Natural Language
Understanding [51.31622274823167]
本稿では,各タスクの下位レベルを全タスクに共有し,中間レベルを異なるグループに分割し,上位レベルを各タスクに割り当てる,粗大なパラダイムを持つ階層型フレームワークを提案する。
これにより、すべてのタスクから基本言語特性を学習し、関連するタスクのパフォーマンスを高め、無関係なタスクから負の影響を減らすことができる。
論文 参考訳(メタデータ) (2022-08-19T02:46:20Z) - Combining Modular Skills in Multitask Learning [149.8001096811708]
モジュラー設計は、ニューラルネットワークが様々な知識の面をアンタングルして再結合し、新しいタスクにより系統的に一般化することを奨励する。
この研究では、各タスクは(潜在的に小さな)インベントリから潜在的な離散スキルのサブセットと関連付けられていると仮定する。
ネットワークのモジュラー設計により、強化学習におけるサンプル効率が著しく向上し、教師あり学習における数ショットの一般化が図られる。
論文 参考訳(メタデータ) (2022-02-28T16:07:19Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。