論文の概要: Towards More Robust Natural Language Understanding
- arxiv url: http://arxiv.org/abs/2112.02992v1
- Date: Wed, 1 Dec 2021 17:27:19 GMT
- ステータス: 処理完了
- システム内更新日: 2021-12-12 14:55:25.120412
- Title: Towards More Robust Natural Language Understanding
- Title(参考訳): より堅牢な自然言語理解に向けて
- Authors: Xinliang Frederick Zhang
- Abstract要約: 自然言語理解(NLU)は自然言語処理(NLP)の分野である
近年、深層学習技術を用いた様々なNLUタスクが目覚ましい進歩を遂げている。
自然言語を理解する人間の能力は柔軟で堅牢です。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Natural Language Understanding (NLU) is a branch of Natural Language
Processing (NLP) that uses intelligent computer software to understand texts
that encode human knowledge. Recent years have witnessed notable progress
across various NLU tasks with deep learning techniques, especially with
pretrained language models. Besides proposing more advanced model
architectures, constructing more reliable and trustworthy datasets also plays a
huge role in improving NLU systems, without which it would be impossible to
train a decent NLU model. It's worth noting that the human ability of
understanding natural language is flexible and robust. On the contrary, most of
existing NLU systems fail to achieve desirable performance on out-of-domain
data or struggle on handling challenging items (e.g., inherently ambiguous
items, adversarial items) in the real world. Therefore, in order to have NLU
models understand human language more effectively, it is expected to prioritize
the study on robust natural language understanding. In this thesis, we deem
that NLU systems are consisting of two components: NLU models and NLU datasets.
As such, we argue that, to achieve robust NLU, the model architecture/training
and the dataset are equally important. Specifically, we will focus on three NLU
tasks to illustrate the robustness problem in different NLU tasks and our
contributions (i.e., novel models and new datasets) to help achieve more robust
natural language understanding. Moving forward, the ultimate goal for robust
natural language understanding is to build NLU models which can behave humanly.
That is, it's expected that robust NLU systems are capable to transfer the
knowledge from training corpus to unseen documents more reliably and survive
when encountering challenging items even if the system doesn't know a priori of
users' inputs.
- Abstract(参考訳): 自然言語理解 (natural language understanding, nlu) は自然言語処理 (nlp) の一分野であり、知的コンピュータソフトウェアを用いて人間の知識をエンコードするテキストを理解する。
近年、ディープラーニング技術、特に事前訓練された言語モデルを用いた様々なNLUタスクにおいて顕著な進歩が見られた。
より高度なモデルアーキテクチャの提案に加えて、信頼性が高く信頼性の高いデータセットの構築は、適切なNLUモデルをトレーニングすることが不可能なNLUシステムを改善する上でも大きな役割を果たす。
自然言語を理解する人間の能力は柔軟で堅牢です。
それとは対照的に、既存のnluシステムのほとんどは、ドメイン外データで望ましいパフォーマンスを達成できなかったり、実世界で困難な項目(本質的にあいまいな項目、敵対的な項目)を扱うのに苦労している。
したがって、NLUモデルをより効果的に人間の言語を理解するために、堅牢な自然言語理解の研究を優先することが期待される。
この論文では、NLUシステムは、NLUモデルとNLUデータセットの2つのコンポーネントから構成されていると仮定する。
したがって、ロバストなNLUを達成するために、モデルアーキテクチャ/トレーニングとデータセットは等しく重要であると論じる。
具体的には、3つのNLUタスクに注目し、異なるNLUタスクの堅牢性問題と我々の貢献(新しいモデルと新しいデータセット)を説明し、より堅牢な自然言語理解を実現する。
今後、堅牢な自然言語理解の最終的な目標は、人間の振る舞いが可能なNLUモデルを構築することです。
つまり、堅牢なnluシステムは、システムがユーザの入力の優先順位を知らない場合でも、トレーニングコーパスからの知識を、より信頼できないドキュメントに転送し、困難な項目に遭遇しても生き残ることが期待されている。
関連論文リスト
- SeqGPT: An Out-of-the-box Large Language Model for Open Domain Sequence
Understanding [103.34092301324425]
大規模言語モデル(LLM)は、オープンドメインのNLPタスクに顕著な能力を示している。
本稿では、オープンドメインの自然言語理解に特化して強化された、バイリンガル(英語と中国語)のオープンソース自己回帰モデルSeqGPTを提案する。
論文 参考訳(メタデータ) (2023-08-21T07:31:19Z) - Understanding Natural Language Understanding Systems. A Critical
Analysis [91.81211519327161]
自然言語理解システム(Natural Language Understanding (NLU) system)としても知られる usguillemotright(英語版) のようなギユモトレフトークを持つ機械の開発は、人工知能の聖杯(英語版) (AI) である。
しかし、Gillemottalking machineguillemotrightを構築することができるという信頼は、次世代のNLUシステムによってもたらされたものよりも強かった。
私たちは新しい時代の夜明けに、ついに砂利が我々に近づいたのか?
論文 参考訳(メタデータ) (2023-03-01T08:32:55Z) - Reliable Natural Language Understanding with Large Language Models and
Answer Set Programming [0.0]
大規模言語モデル(LLM)は、様々なNLPタスクを解くためにテキストのパターンを利用することができるが、推論を必要とする問題では不足している。
LLMとAnswer Set Programming(ASP)を組み合わせたフレームワークSTARを提案する。
目標指向のASPは、この知識を確実に推論するために使用される。
論文 参考訳(メタデータ) (2023-02-07T22:37:21Z) - The Massively Multilingual Natural Language Understanding 2022
(MMNLU-22) Workshop and Competition [0.0]
利用可能なデータがないため、自然言語理解システムは言語のサブセットに限定されることが一般的である。
我々は、NLUの限界に対処し、NLU技術を新しい高さまで推進する3段階のアプローチをローンチする。
我々は、Slot-filling、Intent Classification、Virtual Assistant EvaluationのためのMultilingual Amazon SLU Resource Pack(SLURP)と呼ばれる52の言語データセットをリリースする。
我々は、競争環境を提供し、モデルの他言語への転送可能性を高めるために、大規模多言語NLU 2022チャレンジを組織する。
論文 参考訳(メタデータ) (2022-12-13T03:00:36Z) - A Survey of Knowledge Enhanced Pre-trained Language Models [78.56931125512295]
我々は、知識強化事前学習言語モデル(KE-PLMs)の包括的なレビューを行う。
NLUでは、言語知識、テキスト知識、知識グラフ(KG)、ルール知識の4つのカテゴリに分類する。
NLGのKE-PLMは、KGベースと検索ベースに分類される。
論文 参考訳(メタデータ) (2022-11-11T04:29:02Z) - Finstreder: Simple and fast Spoken Language Understanding with Finite
State Transducers using modern Speech-to-Text models [69.35569554213679]
Spoken Language Understanding (SLU) では、音声コマンドから重要な情報を抽出する。
本稿では,有限状態トランスデューサにインテントやエンティティを埋め込む簡単な方法を提案する。
論文 参考訳(メタデータ) (2022-06-29T12:49:53Z) - NLU++: A Multi-Label, Slot-Rich, Generalisable Dataset for Natural
Language Understanding in Task-Oriented Dialogue [53.54788957697192]
NLU++はタスク指向対話(ToD)システムにおける自然言語理解(NLU)のための新しいデータセットである。
NLU++は2つのドメイン(BANKINGとHOTELS)に分割されており、現在一般的に使用されているNLUデータセットよりもいくつかの重要な改善が行われている。
論文 参考訳(メタデータ) (2022-04-27T16:00:23Z) - Knowledge-driven Natural Language Understanding of English Text and its
Applications [8.417188296231059]
英文を対象とした知識駆動型意味表現手法を提案する。
SQuARE (Semantic-based Question Answering and Reasoning Engine) と StaCACK (Stateful Conversational Agent using Commonsense Knowledge) の2つのNLUアプリケーションを提案する。
論文 参考訳(メタデータ) (2021-01-27T22:02:50Z) - Language Model is All You Need: Natural Language Understanding as
Question Answering [75.26830242165742]
本研究では、対象ドメインをソースドメインにマッピングする、特定の転送学習のファミリーの使用について検討する。
提案手法は,同性能に必要なデータ量を最大10倍に削減できることを示す。
論文 参考訳(メタデータ) (2020-11-05T18:31:22Z) - Dual Inference for Improving Language Understanding and Generation [35.251935231914366]
自然言語理解(NLU)と自然言語生成(NLG)のタスクは、強い二重関係を持つ。
NLUは自然言語の発話に基づいて意味ラベルを予測することを目的としており、NLGはその逆を行う。
本稿では,再学習を必要とせず,推論段階における双対性を活用することを提案する。
論文 参考訳(メタデータ) (2020-10-08T20:14:41Z) - A Generative Model for Joint Natural Language Understanding and
Generation [9.810053382574017]
本研究では,NLUとNLGを結合した生成モデルを提案する。
本モデルでは,2つの対話データセットに対して,フラットおよびツリー構造の両方の形式表現を用いて,最先端のパフォーマンスを実現する。
また,モデルの性能向上のために,ラベルのないデータを活用することで,半教師付きでモデルを訓練できることも示す。
論文 参考訳(メタデータ) (2020-06-12T22:38:55Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。