論文の概要: Explainable and Accurate Natural Language Understanding for Voice
Assistants and Beyond
- arxiv url: http://arxiv.org/abs/2309.14485v1
- Date: Mon, 25 Sep 2023 19:30:44 GMT
- ステータス: 処理完了
- システム内更新日: 2023-09-27 16:06:06.399102
- Title: Explainable and Accurate Natural Language Understanding for Voice
Assistants and Beyond
- Title(参考訳): 音声アシスタントのための説明可能で正確な自然言語理解
- Authors: Kalpa Gunaratna, Vijay Srinivasan, Hongxia Jin
- Abstract要約: 我々は、完全関節型NLUモデルを、粒度レベルで本質的に「説明可能」に変換する。
完全関節型NLUモデルの説明を可能にするため、他の一般的な分類タスクにおいて、この拡張をうまく利用できることが示される。
- 参考スコア(独自算出の注目度): 42.656751634420914
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Joint intent detection and slot filling, which is also termed as joint NLU
(Natural Language Understanding) is invaluable for smart voice assistants.
Recent advancements in this area have been heavily focusing on improving
accuracy using various techniques. Explainability is undoubtedly an important
aspect for deep learning-based models including joint NLU models. Without
explainability, their decisions are opaque to the outside world and hence, have
tendency to lack user trust. Therefore to bridge this gap, we transform the
full joint NLU model to be `inherently' explainable at granular levels without
compromising on accuracy. Further, as we enable the full joint NLU model
explainable, we show that our extension can be successfully used in other
general classification tasks. We demonstrate this using sentiment analysis and
named entity recognition.
- Abstract(参考訳): 自然言語理解(joint language understanding)とも呼ばれる統合意図検出とスロット充填は、スマートボイスアシスタントにとって非常に有用である。
近年,様々な手法による精度向上に重点が置かれている。
説明可能性は、共同NLUモデルを含むディープラーニングベースのモデルにとって、間違いなく重要な側面である。
説明ができないと、彼らの決定は外界に不透明であり、従ってユーザーの信頼を欠く傾向がある。
したがって, このギャップを埋めるために, 完全関節型NLUモデルを, 精度を損なうことなく, 粒度レベルで「直感的に」説明可能なモデルに変換する。
さらに, 完全関節型NLUモデルの説明を可能にすることにより, 拡張が他の一般的な分類タスクでうまく利用できることを示す。
感情分析とエンティティ認識を用いてこれを実証する。
関連論文リスト
- Towards Spoken Language Understanding via Multi-level Multi-grained Contrastive Learning [50.1035273069458]
音声言語理解(SLU)はタスク指向対話システムにおける中核的なタスクである。
本稿では,発話レベル,スロットレベル,単語レベルを含む3段階のコントラスト学習を実現するためのマルチレベルMMCLフレームワークを提案する。
本フレームワークは,2つの公開マルチインテリジェントSLUデータセットに対して,最先端の新たな結果を実現する。
論文 参考訳(メタデータ) (2024-05-31T14:34:23Z) - LLMs' Reading Comprehension Is Affected by Parametric Knowledge and Struggles with Hypothetical Statements [59.71218039095155]
言語モデルの自然言語理解(NLU)能力を評価するための主要な手段として、読解理解(RC)があげられる。
文脈がモデルの内部知識と一致している場合、モデルの回答がコンテキスト理解に由来するのか、あるいは内部情報から生じるのかを識別することは困難である。
この問題に対処するために、架空の事実や実体に基づいて、想像上のデータにRCを使うことを提案する。
論文 参考訳(メタデータ) (2024-04-09T13:08:56Z) - Tuning-Free Accountable Intervention for LLM Deployment -- A
Metacognitive Approach [55.613461060997004]
大規模言語モデル(LLM)は、自然言語処理タスクの幅広い領域にわたる変換的進歩を触媒している。
我々は,自己認識型誤り識別と訂正機能を備えたLLMを実現するために,textbfCLEARと呼ばれる革新的なテキストメタ認知手法を提案する。
論文 参考訳(メタデータ) (2024-03-08T19:18:53Z) - Benchmarking Faithfulness: Towards Accurate Natural Language
Explanations in Vision-Language Tasks [0.0]
自然言語の説明(NLE)は、モデルの意思決定を容易に理解可能な方法でコミュニケーション可能にすることを約束する。
現在のモデルは説得力のある説明をうまく生成するが、NLEが実際にモデルの推論過程をいかにうまく表現しているかは未解決の問題である。
帰属相似性(Atribution-Similarity)、NLE-Sufficiency(NLE-Sufficiency)、NLE-Comprehensiveness(NLE-Comprehensiveness)の3つの忠実度指標を提案する。
論文 参考訳(メタデータ) (2023-04-03T08:24:10Z) - Zero-Shot Learning for Joint Intent and Slot Labeling [11.82805641934772]
共同ゼロショットインテント分類とスロットラベリングを有益に行うことができることを示す。
本稿では,単語と文の埋め込み空間を翻訳するNNアーキテクチャについて述べる。
論文 参考訳(メタデータ) (2022-11-29T01:58:25Z) - Empowering Language Models with Knowledge Graph Reasoning for Question
Answering [117.79170629640525]
我々はknOwledge ReasOning empowered Language Model (OREO-LM)を提案する。
OREO-LMは、既存のTransformerベースのLMに柔軟に接続できる新しい知識相互作用層で構成されている。
クローズド・ブック・セッティングにおいて,最先端の成果が得られ,性能が著しく向上した。
論文 参考訳(メタデータ) (2022-11-15T18:26:26Z) - VALUE: Understanding Dialect Disparity in NLU [50.35526025326337]
アフリカ・アメリカン・バーナクラ・イングリッシュ(AAVE)の11つの特徴に関するルールを構築した。
言語的アクセプタビリティ判断により,各特徴変換の検証を行うために,流線型AAVE話者を募集する。
実験により、これらの新しい方言の特徴がモデル性能の低下につながることが示された。
論文 参考訳(メタデータ) (2022-04-06T18:30:56Z) - Towards More Robust Natural Language Understanding [0.0]
自然言語理解(NLU)は自然言語処理(NLP)の分野である
近年、深層学習技術を用いた様々なNLUタスクが目覚ましい進歩を遂げている。
自然言語を理解する人間の能力は柔軟で堅牢です。
論文 参考訳(メタデータ) (2021-12-01T17:27:19Z) - Speech To Semantics: Improve ASR and NLU Jointly via All-Neural
Interfaces [17.030832205343195]
本稿では,音声アシスタントを指向した音声から自然言語意図を抽出する言語理解(SLU)の問題について考察する。
ハードウェア制約のあるシナリオにデプロイする機会を開放するために必要な仕様のために、エンドツーエンドのSLUモデルを構築することができる。
共同学習モデルでは,NLUからの意味情報を取り入れたASRの改良や,隠蔽層に符号化されたASRの混乱に露呈することでNLUの改善が示されている。
論文 参考訳(メタデータ) (2020-08-14T02:43:57Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。