論文の概要: Injecting Word Information with Multi-Level Word Adapter for Chinese
Spoken Language Understanding
- arxiv url: http://arxiv.org/abs/2010.03903v3
- Date: Mon, 28 Mar 2022 08:11:19 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-09 12:17:21.032590
- Title: Injecting Word Information with Multi-Level Word Adapter for Chinese
Spoken Language Understanding
- Title(参考訳): 中国語理解のための多レベル単語アダプタによる単語情報の注入
- Authors: Dechuan Teng, Libo Qin, Wanxiang Che, Sendong Zhao, Ting Liu
- Abstract要約: 我々は、単語情報を注入することで、中国語の音声理解(SLU)を改善する。
我々のモデルは有用な単語情報をキャプチャし、最先端の性能を達成することができる。
- 参考スコア(独自算出の注目度): 65.01421041485247
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In this paper, we improve Chinese spoken language understanding (SLU) by
injecting word information. Previous studies on Chinese SLU do not consider the
word information, failing to detect word boundaries that are beneficial for
intent detection and slot filling. To address this issue, we propose a
multi-level word adapter to inject word information for Chinese SLU, which
consists of (1) sentence-level word adapter, which directly fuses the sentence
representations of the word information and character information to perform
intent detection and (2) character-level word adapter, which is applied at each
character for selectively controlling weights on word information as well as
character information. Experimental results on two Chinese SLU datasets show
that our model can capture useful word information and achieve state-of-the-art
performance.
- Abstract(参考訳): 本稿では,単語情報を注入することで中国語音声理解(slu)を改善する。
従来の中国SLUの研究では、単語情報は考慮されておらず、意図の検出やスロットフィリングに有用な単語境界の検出に失敗した。
この問題に対処するために,(1)単語情報と文字情報の文表現を直接融合して意図検出を行う文レベル単語アダプタと、(2)単語情報と文字情報との重み付けを選択的に制御するために各文字に適用される文字レベル単語アダプタとからなる中国語sluに単語情報を注入する多レベル単語アダプタを提案する。
2つの中国のSLUデータセットによる実験結果から,我々のモデルは有用な単語情報を捕捉し,最先端の性能を実現することができることがわかった。
関連論文リスト
- Are BabyLMs Second Language Learners? [48.85680614529188]
本稿では,BabyLM Challengeの2024年版に対する言語的動機づけのアプローチについて述べる。
第1言語学習(L1)パラダイムを追求するのではなく,第2言語(L2)学習の観点から,課題にアプローチする。
論文 参考訳(メタデータ) (2024-10-28T17:52:15Z) - VK-G2T: Vision and Context Knowledge enhanced Gloss2Text [60.57628465740138]
既存の手話翻訳法は、2段階のパイプラインに従っており、まず手話動画をグロスシーケンス(Sign2Gloss)に変換し、次に生成されたグロスシーケンスを音声言語文(Gross2Text)に変換する。
本稿では,目標文の性質を学習するために手話ビデオの視覚的内容を活用し,文脈知識を活用して単語の適応翻訳を容易にする,視覚的・文脈的知識強化型Gloss2Textモデル VK-G2Tを提案する。
論文 参考訳(メタデータ) (2023-12-15T21:09:34Z) - X-PARADE: Cross-Lingual Textual Entailment and Information Divergence across Paragraphs [55.80189506270598]
X-PARADEは、段落レベルの情報の分岐の最初の言語間データセットである。
アノテーションは、対象言語における段落をスパンレベルでラベル付けし、ソース言語における対応する段落に対して評価する。
アライメントされた段落は、異なる言語のウィキペディアページから引用される。
論文 参考訳(メタデータ) (2023-09-16T04:34:55Z) - Translate to Disambiguate: Zero-shot Multilingual Word Sense
Disambiguation with Pretrained Language Models [67.19567060894563]
事前訓練された言語モデル(PLM)は、豊富な言語間知識を学習し、多様なタスクでうまく機能するように微調整することができる。
C-WLT(Contextual Word-Level Translation)を用いた言語間単語感覚の捉え方の検討を行った。
モデルのサイズが大きくなるにつれて、PLMはより言語間単語認識の知識をエンコードし、WLT性能を改善するためのコンテキストを良くする。
論文 参考訳(メタデータ) (2023-04-26T19:55:52Z) - Text is no more Enough! A Benchmark for Profile-based Spoken Language
Understanding [26.549776399115203]
プロファイルベースの音声言語理解(ProSLU)は、プレーンテキストだけでなく、適切な意図やスロットを予測するために、サポートされたプロファイル情報にも依存するモデルを必要とする。
我々は、5K以上の発話とそれに対応するプロファイル情報を備えた大規模人手による中国語データセットを導入する。
実験結果から,既存のテキストベースSLUモデルは,発話が意味的に曖昧である場合に動作しないことがわかった。
論文 参考訳(メタデータ) (2021-12-22T15:22:17Z) - LET: Linguistic Knowledge Enhanced Graph Transformer for Chinese Short
Text Matching [29.318730227080675]
外部知識基盤としてHowNetを導入し,単語のあいまいさに対処する言語知識拡張グラフ変換器(LET)を提案する。
2つの中国語データセットによる実験結果から、我々のモデルは様々な典型的なテキストマッチング手法より優れていることが示された。
論文 参考訳(メタデータ) (2021-02-25T04:01:51Z) - SLK-NER: Exploiting Second-order Lexicon Knowledge for Chinese NER [8.122270502556374]
文中の各文字の2次語彙知識(SLK)に関する新たな知見を提示し,より語彙的な単語情報を提供する。
提案モデルは,グローバルコンテキストの助けを借りて,より識別可能な語彙情報を利用することができる。
論文 参考訳(メタデータ) (2020-07-16T15:53:02Z) - Incorporating Uncertain Segmentation Information into Chinese NER for
Social Media Text [18.455836845989523]
セグメンテーションエラーの伝播は、中国のエンティティ認識システムにとっての課題である。
中国のソーシャルメディアテキストからエンティティを識別するモデル(UIcwsNN)を提案する。
論文 参考訳(メタデータ) (2020-04-14T09:39:35Z) - On the Importance of Word Order Information in Cross-lingual Sequence
Labeling [80.65425412067464]
ソース言語の単語順に適合する言語間モデルでは、ターゲット言語を処理できない可能性がある。
本研究では,ソース言語の単語順序に敏感なモデルを作成することで,対象言語の適応性能が向上するかどうかを検討する。
論文 参考訳(メタデータ) (2020-01-30T03:35:44Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。