論文の概要: Mutlitask Learning for Cross-Lingual Transfer of Semantic Dependencies
- arxiv url: http://arxiv.org/abs/2004.14961v1
- Date: Thu, 30 Apr 2020 17:09:51 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-08 04:32:59.940963
- Title: Mutlitask Learning for Cross-Lingual Transfer of Semantic Dependencies
- Title(参考訳): 意味的係り受けの言語間伝達のためのメタリタスク学習
- Authors: Maryam Aminian, Mohammad Sadegh Rasooli, Mona Diab
- Abstract要約: 我々は,意味的アノテーションのない言語に対して,広範囲なセマンティック依存関係を開発する。
我々はアノテーション投影法と組み合わせたマルチタスク学習フレームワークを利用する。
ドメイン内のSemEvalデータにおいて、最良マルチタスクモデルにより、単一タスクベースライン上のラベル付きF1スコアが1.8向上することを示す。
- 参考スコア(独自算出の注目度): 21.503766432869437
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We describe a method for developing broad-coverage semantic dependency
parsers for languages for which no semantically annotated resource is
available. We leverage a multitask learning framework coupled with an
annotation projection method. We transfer supervised semantic dependency parse
annotations from a rich-resource language to a low-resource language through
parallel data, and train a semantic parser on projected data. We make use of
supervised syntactic parsing as an auxiliary task in a multitask learning
framework, and show that with different multitask learning settings, we
consistently improve over the single-task baseline. In the setting in which
English is the source, and Czech is the target language, our best multitask
model improves the labeled F1 score over the single-task baseline by 1.8 in the
in-domain SemEval data (Oepen et al., 2015), as well as 2.5 in the
out-of-domain test set. Moreover, we observe that syntactic and semantic
dependency direction match is an important factor in improving the results.
- Abstract(参考訳): 本稿では,意味論的にアノテートされたリソースが存在しない言語用意味依存構文解析器の開発手法について述べる。
我々はアノテーション投影法と組み合わせたマルチタスク学習フレームワークを利用する。
我々は,教師付きセマンティクス依存構文解析アノテーションを,リッチリソース言語から並列データを介して低リソース言語に転送し,投影データ上でセマンティクスパーサを訓練する。
マルチタスク学習フレームワークでは,教師付き構文解析を補助タスクとして活用し,異なるマルチタスク学習設定により,シングルタスクベースラインを一貫して改善することを示す。
英語がソースであり、チェコ語がターゲット言語である設定において、我々の最高のマルチタスクモデルは、ドメイン内セムバルデータ(oepen et al., 2015)とドメイン外テストセットの2.5において、シングルタスクベースラインよりもラベル付きf1スコアを1.8改善します。
さらに,構文と意味依存の方向が一致することが,結果を改善する上で重要な要因であると考えられる。
関連論文リスト
- CUNI Submission to MRL 2023 Shared Task on Multi-lingual Multi-task
Information Retrieval [5.97515243922116]
本稿では,多言語多タスク情報検索におけるMRL2023共有タスクのためのチャールズ大学システムを提案する。
共有タスクの目的は、いくつかの未表現言語で名前付きエンティティ認識と質問応答のためのシステムを開発することである。
両方のサブタスクに対する私たちのソリューションは、翻訳テストのアプローチに依存しています。
論文 参考訳(メタデータ) (2023-10-25T10:22:49Z) - FonMTL: Towards Multitask Learning for the Fon Language [1.9370453715137865]
本稿では,Fon言語のための自然言語処理におけるモデル機能向上のための,マルチタスク学習のための最初の爆発的アプローチを提案する。
我々は2つの言語モデルヘッドをエンコーダとして利用して入力の共有表現を構築し,各タスクに対して線形層ブロックを用いて分類する。
Fon の NER および POS タスクの結果は,複数言語で事前訓練された言語モデルに対して,単一タスクで微調整された言語モデルと比較して,競争力(あるいはより優れた)性能を示す。
論文 参考訳(メタデータ) (2023-08-28T03:26:21Z) - Optimal Transport Posterior Alignment for Cross-lingual Semantic Parsing [68.47787275021567]
言語間のセマンティックパーシングは、高いソース言語(例えば英語)から少ないトレーニングデータを持つ低リソース言語へのパーシング能力を伝達する。
そこで本稿では,最適輸送を用いた係り受け変数間の言語間相違を明示的に最小化することで,言語間セマンティック解析のための新しい手法を提案する。
論文 参考訳(メタデータ) (2023-07-09T04:52:31Z) - Beyond Contrastive Learning: A Variational Generative Model for
Multilingual Retrieval [109.62363167257664]
本稿では,多言語テキスト埋め込み学習のための生成モデルを提案する。
我々のモデルは、$N$言語で並列データを操作する。
本手法は, 意味的類似性, ビットクストマイニング, 言語間質問検索などを含む一連のタスクに対して評価を行う。
論文 参考訳(メタデータ) (2022-12-21T02:41:40Z) - Multilingual Word Sense Disambiguation with Unified Sense Representation [55.3061179361177]
本稿では,知識と教師付き多言語単語センス曖昧化(MWSD)システムを提案する。
我々は複数の言語に統一されたセンス表現を構築し、リッチソース言語から貧しい言語へアノテーションを転送することでMWSDのアノテーション不足問題に対処する。
SemEval-13およびSemEval-15データセットの評価により,提案手法の有効性が示された。
論文 参考訳(メタデータ) (2022-10-14T01:24:03Z) - Incorporating Linguistic Knowledge for Abstractive Multi-document
Summarization [20.572283625521784]
ニューラルネットワークに基づく抽象的多文書要約(MDS)モデルを開発した。
依存関係情報を言語誘導型注意機構に処理する。
言語信号の助けを借りて、文レベルの関係を正しく捉えることができる。
論文 参考訳(メタデータ) (2021-09-23T08:13:35Z) - Structured Prediction as Translation between Augmented Natural Languages [109.50236248762877]
本研究では,構造化予測言語の課題を解決するために,新しいフレームワークであるTANL(Translation between Augmented Natural Languages)を提案する。
タスク固有の差別を訓練することで問題に取り組む代わりに、拡張自然言語間の翻訳タスクとして位置づける。
提案手法は, タスク固有のモデルに適合するか, 性能に優れ, 特に, 共同エンティティと関係抽出に関する新たな最先端結果が得られる。
論文 参考訳(メタデータ) (2021-01-14T18:32:21Z) - Cross-lingual Dependency Parsing as Domain Adaptation [48.69930912510414]
言語間転送学習はドメイン内学習と同じくらい不可欠である。
我々は、監視なしで普遍的な特徴を抽出する事前学習タスクの能力を利用する。
従来のセルフトレーニングと2つの事前トレーニングを組み合わせる。
論文 参考訳(メタデータ) (2020-12-24T08:14:36Z) - Multilingual Irony Detection with Dependency Syntax and Neural Models [61.32653485523036]
これは構文知識からの貢献に焦点を当て、普遍依存スキームに従って構文が注釈付けされた言語資源を活用する。
その結果, 依存性をベースとした微粒な構文情報は, アイロンの検出に有用であることが示唆された。
論文 参考訳(メタデータ) (2020-11-11T11:22:05Z) - Hierarchical Multi Task Learning with Subword Contextual Embeddings for
Languages with Rich Morphology [5.5217350574838875]
自然言語処理(NLP)における多くのシーケンスラベリングタスクにおける形態情報の重要性
本研究では, 単語文脈埋め込みを用いて, 豊富な形態素を持つ言語に対する形態情報を取得することを提案する。
我々のモデルは、トルコ語の両方のタスクにおける過去の最先端モデルよりも優れています。
論文 参考訳(メタデータ) (2020-04-25T22:55:56Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。