論文の概要: Intent Features for Rich Natural Language Understanding
- arxiv url: http://arxiv.org/abs/2104.08701v1
- Date: Sun, 18 Apr 2021 03:57:02 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-20 14:10:12.269018
- Title: Intent Features for Rich Natural Language Understanding
- Title(参考訳): リッチ自然言語理解のためのインテント機能
- Authors: Brian Lester, Sagnik Ray Choudhury, Rashmi Prasad, Srinivas Bangalore
- Abstract要約: ダイアログシステムにおける複雑な自然言語理解モジュールは、ユーザの発話をより深く理解する。
これらのモデルはしばしば、特定のクライアントやユースケースのためにスクラッチから作成され、大きなデータセットのアノテーションを必要とする。
シンタクティック・キューからのみ学ぶことができる意図のドメインとトピックに依存しない特性という意図的特徴のアイデアを紹介します。
- 参考スコア(独自算出の注目度): 7.522454850008495
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Complex natural language understanding modules in dialog systems have a
richer understanding of user utterances, and thus are critical in providing a
better user experience. However, these models are often created from scratch,
for specific clients and use cases, and require the annotation of large
datasets. This encourages the sharing of annotated data across multiple
clients. To facilitate this we introduce the idea of intent features: domain
and topic agnostic properties of intents that can be learned from the syntactic
cues only, and hence can be shared. We introduce a new neural network
architecture, the Global-Local model, that shows significant improvement over
strong baselines for identifying these features in a deployed, multi-intent
natural language understanding module, and, more generally, in a classification
setting where a part of an utterance has to be classified utilizing the whole
context.
- Abstract(参考訳): ダイアログシステムにおける複雑な自然言語理解モジュールは、ユーザの発話をより深く理解しているため、より良いユーザエクスペリエンスを提供する上で重要である。
しかしながら、これらのモデルはしばしば、特定のクライアントやユースケースのためにスクラッチから作成され、大きなデータセットのアノテーションを必要とする。
これにより、複数のクライアント間でアノテーション付きデータの共有が促進される。
これを容易にするために,本論文では,目的のドメインとトピックの非依存的特性を,統語的手がかりからのみ学習し,したがって共有することができる,という意図的特徴の考え方を紹介した。
本稿では,分散された多目的自然言語理解モジュールにおいて,これらの特徴を識別するための強力なベースラインよりも大きな改善を示す,新たなニューラルネットワークアーキテクチャであるglobal-local modelを導入する。
関連論文リスト
- Knowledge Graphs and Pre-trained Language Models enhanced Representation
Learning for Conversational Recommender Systems [63.974673451117226]
本稿では,対話型推薦システムのためのエンティティの意味理解を改善するために,知識強化型エンティティ表現学習(KERL)フレームワークを紹介する。
KERLは知識グラフと事前訓練された言語モデルを使用して、エンティティの意味的理解を改善する。
KERLはレコメンデーションとレスポンス生成の両方のタスクで最先端の結果を達成する。
論文 参考訳(メタデータ) (2023-12-18T06:41:23Z) - SHINE: Syntax-augmented Hierarchical Interactive Encoder for Zero-shot
Cross-lingual Information Extraction [47.88887327545667]
本研究では,構文拡張型階層型インタラクティブエンコーダ(SHINE)を提案する。
Shineは、特徴とコンテキスト情報の間の相補的な情報をインタラクティブにキャプチャすることができる。
3つのIEタスクと4つのベンチマークで7つの言語で実験を行い、提案手法の有効性と一般化能力を検証した。
論文 参考訳(メタデータ) (2023-05-21T08:02:06Z) - Towards Zero-Shot Frame Semantic Parsing with Task Agnostic Ontologies
and Simple Labels [0.9236074230806577]
OpenFSPは単純なラベルから新しいドメインを簡単に作成するためのフレームワークである。
我々のアプローチは、小さな、しかし表現力のある、ドメインに依存しないスロットタイプを作成することに依存します。
私たちのモデルは、この単純なラベル設定で強いベースラインを上回ります。
論文 参考訳(メタデータ) (2023-05-05T18:47:18Z) - Prompt Learning for Domain Adaptation in Task-Oriented Dialogue [0.20305676256390934]
標準形式は意図分類の従来の方法に代わる有望な代替手段であることを示す。
標準形式はゼロまたは少数ショット設定で新しい、見えない領域に非常によく一般化することを示す。
論文 参考訳(メタデータ) (2022-11-10T14:16:00Z) - Dialogue Term Extraction using Transfer Learning and Topological Data
Analysis [0.8185867455104834]
我々は、純粋にデータ駆動方式で対話におけるドメイン、スロット、値の認識を可能にするさまざまな機能を探究する。
各特徴セットの有用性を検討するために、広く使われているMultiWOZデータセットに基づいてシードモデルを訓練する。
提案手法は,単語の埋め込みのみに依存する従来の手法よりも優れている。
論文 参考訳(メタデータ) (2022-08-22T17:04:04Z) - Compositional Generalization in Grounded Language Learning via Induced
Model Sparsity [81.38804205212425]
グリッド環境における単純な言語条件のナビゲーション問題について考察する。
本研究では,オブジェクトの指示文と属性のスパース相関を助長するエージェントを設計し,それらを組み合わせて目的を導出する。
我々のエージェントは、少数のデモンストレーションから学習した場合でも、新しいプロパティの組み合わせを含む目標に対して高いレベルのパフォーマンスを維持している。
論文 参考訳(メタデータ) (2022-07-06T08:46:27Z) - Neural Abstructions: Abstractions that Support Construction for Grounded
Language Learning [69.1137074774244]
言語の相互作用を効果的に活用するには、言語基底に対する2つの最も一般的なアプローチの制限に対処する必要がある。
本稿では,ラベル条件付き生成モデルの推論手順に対する制約のセットであるニューラル・アブストラクションの考え方を紹介する。
この手法により,マインクラフトにおけるオープンエンドハウスタスクのセマンティックな変更をユーザ人口が構築できることが示される。
論文 参考訳(メタデータ) (2021-07-20T07:01:15Z) - Rich Semantics Improve Few-shot Learning [49.11659525563236]
アノテーションコストを最小限に抑えながら取得できる「クラスレベル」言語記述を用いることで、少ない学習性能を向上できることを示す。
我々は,視覚トークンと意味トークンを関連付けるための前方および後方エンコーディング機構を開発した。
論文 参考訳(メタデータ) (2021-04-26T16:48:27Z) - Visually Analyzing Contextualized Embeddings [2.802183323381949]
本稿では,ディープニューラルネットワークに基づく言語モデルによって生成された文脈的埋め込みを視覚的に解析する手法を提案する。
我々のアプローチは自然言語処理のための言語探索から着想を得ており、タスクは言語構造のための言語モデルを探索するために設計されている。
論文 参考訳(メタデータ) (2020-09-05T15:40:51Z) - Linguistic Typology Features from Text: Inferring the Sparse Features of
World Atlas of Language Structures [73.06435180872293]
我々は、バイト埋め込みと畳み込み層に基づく繰り返しニューラルネットワーク予測器を構築する。
様々な言語型の特徴を確実に予測できることを示す。
論文 参考訳(メタデータ) (2020-04-30T21:00:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。