論文の概要: Zero-shot Cross-lingual Conversational Semantic Role Labeling
- arxiv url: http://arxiv.org/abs/2204.04914v1
- Date: Mon, 11 Apr 2022 07:29:39 GMT
- ステータス: 処理完了
- システム内更新日: 2022-04-12 13:50:24.155720
- Title: Zero-shot Cross-lingual Conversational Semantic Role Labeling
- Title(参考訳): ゼロショット対話的意味的役割ラベリング
- Authors: Han Wu, Haochen Tan, Kun Xu, Shuqi Liu, Lianwei Wu and Linqi Song
- Abstract要約: ゼロショットクロスランガルCSRLを実現するための効果的な手法を提案する。
本モデルは,階層エンコーダを用いた言語に依存しない,対話型構造認識,意味的にリッチな表現を暗黙的に学習する。
英語における質問文書き直しタスクや,英語,ドイツ語,日本語における多方向対話応答生成タスクなど,中国語以外の会話タスクに対するCSRLの有用性を確認した。
- 参考スコア(独自算出の注目度): 30.28068025468505
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: While conversational semantic role labeling (CSRL) has shown its usefulness
on Chinese conversational tasks, it is still under-explored in non-Chinese
languages due to the lack of multilingual CSRL annotations for the parser
training. To avoid expensive data collection and error-propagation of
translation-based methods, we present a simple but effective approach to
perform zero-shot cross-lingual CSRL. Our model implicitly learns
language-agnostic, conversational structure-aware and semantically rich
representations with the hierarchical encoders and elaborately designed
pre-training objectives. Experimental results show that our model outperforms
all baselines by large margins on two newly collected English CSRL test sets.
More importantly, we confirm the usefulness of CSRL to non-Chinese
conversational tasks such as the question-in-context rewriting task in English
and the multi-turn dialogue response generation tasks in English, German and
Japanese by incorporating the CSRL information into the downstream
conversation-based models. We believe this finding is significant and will
facilitate the research of non-Chinese dialogue tasks which suffer the problems
of ellipsis and anaphora.
- Abstract(参考訳): 会話の意味的役割ラベル付け (CSRL) は中国語の会話課題に有用であるが, パーサー訓練に多言語CSRLアノテーションが欠如しているため, 中国語以外の言語では未探索である。
高いデータ収集と翻訳に基づく手法の誤り伝播を避けるため,ゼロショット言語間csrlを行うための単純かつ効果的な手法を提案する。
本モデルは,階層エンコーダと精巧に設計された事前学習目標を用いて,言語に依存しない,対話型構造認識と意味豊かな表現を暗黙的に学習する。
実験結果から,新たに収集した2つの英語CSRLテストセットにおいて,本モデルがすべてのベースラインを大きなマージンで上回ることがわかった。
さらに,CSRL情報を下流の会話ベースモデルに組み込むことで,英語・ドイツ語・日本語の質問文書き直しタスクや多ターン対話応答生成タスクなど,中国語以外の会話タスクに対するCSRLの有用性を確認した。
この発見は重要であり、エリプシスとアナフォラの問題に苦しむ非中国語対話タスクの研究が促進されると信じている。
関連論文リスト
- Understanding Cross-Lingual Alignment -- A Survey [52.572071017877704]
言語間アライメントは多言語言語モデルにおける言語間の表現の有意義な類似性である。
本研究は,言語間アライメントの向上,手法の分類,分野全体からの洞察の要約といった手法の文献を調査する。
論文 参考訳(メタデータ) (2024-04-09T11:39:53Z) - Decomposed Prompting: Unveiling Multilingual Linguistic Structure
Knowledge in English-Centric Large Language Models [12.700783525558721]
GPT-3やLLaMAのような英語中心のLarge Language Models (LLM)は、多言語タスクを実行する素晴らしい能力を示している。
本稿では,シーケンスラベリングタスクにおいて,これらのLLMの言語構造理解を探索するための分解的プロンプト手法を提案する。
論文 参考訳(メタデータ) (2024-02-28T15:15:39Z) - Efficiently Aligned Cross-Lingual Transfer Learning for Conversational
Tasks using Prompt-Tuning [98.60739735409243]
英語のような高リソース言語で訓練された言語モデルの言語間移動は、多くのNLPタスクのために広く研究されている。
並列および大規模多言語会話データセットである言語間アライメント事前学習のためのXSGDを導入する。
協調的な言語間表現を容易にするために,アライメントプロンプトを学習するための効率的なプロンプトチューニング手法を開発した。
論文 参考訳(メタデータ) (2023-04-03T18:46:01Z) - Understanding Translationese in Cross-Lingual Summarization [106.69566000567598]
言語間要約(MS)は、異なる対象言語で簡潔な要約を生成することを目的としている。
大規模なCLSデータを集めるために、既存のデータセットは通常、それらの生成に翻訳を伴います。
本稿では、まず、CLSデータセット構築の異なるアプローチが、異なるレベルの翻訳に結びつくことを確認する。
論文 参考訳(メタデータ) (2022-12-14T13:41:49Z) - Conversational Semantic Role Labeling with Predicate-Oriented Latent
Graph [40.43625257213158]
本稿では,述語中心のガウス機構を持つ述語指向潜在グラフ(POLar)を自動生成する。
POLar構造は動的に切断され、タスクニーズに最適なように洗練される。
さらに,対話レベルの事前学習型言語モデルであるCoDiaBERTを導入し,複数の発話文のサポートを向上する。
論文 参考訳(メタデータ) (2022-10-06T16:42:00Z) - Multi2WOZ: A Robust Multilingual Dataset and Conversational Pretraining
for Task-Oriented Dialog [67.20796950016735]
Multi2WOZデータセットは、中国語、ドイツ語、アラビア語、ロシア語の4つの言語にまたがる。
本稿では,任意の下流TODタスクに対する言語間移動を容易にすることを目的とした,事前学習言語モデル(PrLM)の多言語会話特化のための新しいフレームワークを提案する。
実験の結果,目標言語における(I)会話の特殊化と,(II)具体的なTODタスクのための少数ショット転送の組み合わせが,ほとんどの場合,最高の性能を示すことがわかった。
論文 参考訳(メタデータ) (2022-05-20T18:35:38Z) - The Impact of Cross-Lingual Adjustment of Contextual Word
Representations on Zero-Shot Transfer [3.300216758849348]
mBERTやXLM-Rのような大規模な多言語言語モデルは、様々なIRやNLPタスクにおいてゼロショットの言語間転送を可能にする。
そこで本研究では,mBERTの並列コーパスを用いた言語間相互調整のためのデータ・計算効率向上手法を提案する。
類型的に多様な言語(スペイン語、ロシア語、ベトナム語、ヒンディー語)を実験し、その実装を新しいタスクに拡張する。
NER, XSR, 言語間QAを改良した4言語でのNLIの再生ゲインについて検討した。
論文 参考訳(メタデータ) (2022-04-13T15:28:43Z) - CSAGN: Conversational Structure Aware Graph Network for Conversational
Semantic Role Labeling [27.528361001332264]
この問題に対処することを目的とした,CSRLのためのシンプルで効果的なアーキテクチャを提案する。
本モデルは,話者依存情報を明示的に符号化する対話型構造認識グラフネットワークに基づいている。
論文 参考訳(メタデータ) (2021-09-23T07:47:28Z) - Crossing the Conversational Chasm: A Primer on Multilingual
Task-Oriented Dialogue Systems [51.328224222640614]
大規模な学習済みニューラルネットワークモデルに基づく最新のTODモデルは、データ空腹です。
ToDのユースケースのデータ取得は高価で面倒だ。
論文 参考訳(メタデータ) (2021-04-17T15:19:56Z) - Evaluating Multilingual Text Encoders for Unsupervised Cross-Lingual
Retrieval [51.60862829942932]
本稿では,言語間文書・文検索タスクにおける最先端多言語エンコーダの適合性に着目した体系的実証研究を行う。
文レベルのCLIRでは、最先端のパフォーマンスが達成できることを実証する。
しかし、ピーク性能は、汎用の多言語テキストエンコーダをオフ・ザ・シェルフで使うのではなく、文の理解タスクにさらに特化したバリエーションに依存している。
論文 参考訳(メタデータ) (2021-01-21T00:15:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。