論文の概要: A Knowledge-Enhanced Adversarial Model for Cross-lingual Structured
Sentiment Analysis
- arxiv url: http://arxiv.org/abs/2205.15514v1
- Date: Tue, 31 May 2022 03:07:51 GMT
- ステータス: 処理完了
- システム内更新日: 2022-06-02 03:11:06.250400
- Title: A Knowledge-Enhanced Adversarial Model for Cross-lingual Structured
Sentiment Analysis
- Title(参考訳): 言語間構造化感情分析のための知識エンハンスド・アドバーサリーモデル
- Authors: Qi Zhang, Jie Zhou, Qin Chen, Qingchun Bai, Jun Xiao, Liang He
- Abstract要約: 言語間構造的感情分析タスクは、ソース言語からターゲット言語へ知識を伝達することを目的としている。
本稿では,暗黙的分散と明示的構造的知識を両立させた知識強化逆数モデル(textttKEAM)を提案する。
我々は5つのデータセットの実験を行い、textttKEAMと教師なしおよび教師なしの両方の手法を比較した。
- 参考スコア(独自算出の注目度): 31.05169054736711
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Structured sentiment analysis, which aims to extract the complex semantic
structures such as holders, expressions, targets, and polarities, has obtained
widespread attention from both industry and academia. Unfortunately, the
existing structured sentiment analysis datasets refer to a few languages and
are relatively small, limiting neural network models' performance. In this
paper, we focus on the cross-lingual structured sentiment analysis task, which
aims to transfer the knowledge from the source language to the target one.
Notably, we propose a Knowledge-Enhanced Adversarial Model (\texttt{KEAM}) with
both implicit distributed and explicit structural knowledge to enhance the
cross-lingual transfer. First, we design an adversarial embedding adapter for
learning an informative and robust representation by capturing implicit
semantic information from diverse multi-lingual embeddings adaptively. Then, we
propose a syntax GCN encoder to transfer the explicit semantic information
(e.g., universal dependency tree) among multiple languages. We conduct
experiments on five datasets and compare \texttt{KEAM} with both the supervised
and unsupervised methods. The extensive experimental results show that our
\texttt{KEAM} model outperforms all the unsupervised baselines in various
metrics.
- Abstract(参考訳): ホルダー,表現,目標,極性といった複雑な意味構造を抽出することを目的とした構造化感情分析は,産学界から広く注目を集めている。
残念ながら、既存の構造化感情分析データセットはいくつかの言語を参照しており、比較的小さく、ニューラルネットワークモデルのパフォーマンスを制限している。
本稿では,ソース言語から対象言語へ知識を伝達することを目的とした,言語間構造的感情分析タスクに焦点をあてる。
特に,言語間移動を促進するために,暗黙的な分散と明示的な構造的知識を持つ知識強化適応モデル(\texttt{KEAM})を提案する。
まず,多言語多言語組込みから暗黙的な意味情報を適応的に捉えることで,情報的かつロバストな表現を学習するための,敵対的組込みアダプタを設計する。
次に,複数の言語間で明示的な意味情報(ユニバーサル依存木など)を伝達するための構文GCNエンコーダを提案する。
5つのデータセットで実験を行い, 教師なし手法と教師なし手法を比較した。
実験結果から, 各種メトリクスにおける教師なしベースラインのすべてより優れた性能が得られた。
関連論文リスト
- Understanding Cross-Lingual Alignment -- A Survey [52.572071017877704]
言語間アライメントは多言語言語モデルにおける言語間の表現の有意義な類似性である。
本研究は,言語間アライメントの向上,手法の分類,分野全体からの洞察の要約といった手法の文献を調査する。
論文 参考訳(メタデータ) (2024-04-09T11:39:53Z) - Idioms, Probing and Dangerous Things: Towards Structural Probing for
Idiomaticity in Vector Space [2.5288257442251107]
本研究の目的は, 埋め込まれた慣用的な情報がどのように構造的にコード化されているか, より深く知ることである。
静的 (GloVe) とコンテキスト埋め込み (BERT) の比較検討を行った。
実験の結果,慣用性がベクトルノルムに符号化されているかどうかの矛盾する証拠が得られた。
論文 参考訳(メタデータ) (2023-04-27T17:06:20Z) - Compositional Generalization in Grounded Language Learning via Induced
Model Sparsity [81.38804205212425]
グリッド環境における単純な言語条件のナビゲーション問題について考察する。
本研究では,オブジェクトの指示文と属性のスパース相関を助長するエージェントを設計し,それらを組み合わせて目的を導出する。
我々のエージェントは、少数のデモンストレーションから学習した場合でも、新しいプロパティの組み合わせを含む目標に対して高いレベルのパフォーマンスを維持している。
論文 参考訳(メタデータ) (2022-07-06T08:46:27Z) - DeepStruct: Pretraining of Language Models for Structure Prediction [64.84144849119554]
テキストから構造を生成するために,タスクに依存しないコーパスの集合上で言語モデルを事前訓練する。
我々の構造事前学習は、モデルが構造タスクについて持っている学習知識のゼロショット転送を可能にする。
10Bパラメータ言語モデルがほとんどのタスクに非自明に転送し、28のデータセットのうち21の最先端のパフォーマンスを得ることを示す。
論文 参考訳(メタデータ) (2022-05-21T00:58:22Z) - A Latent-Variable Model for Intrinsic Probing [93.62808331764072]
固有プローブ構築のための新しい潜在変数定式化を提案する。
我々は、事前訓練された表現が言語間交互に絡み合ったモルフォシンタクスの概念を発達させる経験的証拠を見出した。
論文 参考訳(メタデータ) (2022-01-20T15:01:12Z) - Knowledge Graph Augmented Network Towards Multiview Representation
Learning for Aspect-based Sentiment Analysis [96.53859361560505]
本稿では,知識グラフ拡張ネットワーク(KGAN)を提案する。
KGANは感情の特徴表現を、文脈、構文、知識に基づく複数の視点から捉えている。
3つの人気のあるABSAベンチマークの実験は、我々のKGANの有効性と堅牢性を示している。
論文 参考訳(メタデータ) (2022-01-13T08:25:53Z) - Incorporating Linguistic Knowledge for Abstractive Multi-document
Summarization [20.572283625521784]
ニューラルネットワークに基づく抽象的多文書要約(MDS)モデルを開発した。
依存関係情報を言語誘導型注意機構に処理する。
言語信号の助けを借りて、文レベルの関係を正しく捉えることができる。
論文 参考訳(メタデータ) (2021-09-23T08:13:35Z) - Pre-training Language Model Incorporating Domain-specific Heterogeneous Knowledge into A Unified Representation [49.89831914386982]
本研究では, 構造化されていないテキスト, 半構造化されたテキスト, 十分に構造化されたテキストを含む, あらゆる形式のテキストに対して, 統一された事前学習言語モデル (PLM) を提案する。
提案手法は,データの1/4のみを用いて,プレーンテキストの事前学習に優れる。
論文 参考訳(メタデータ) (2021-09-02T16:05:24Z) - Visually Analyzing Contextualized Embeddings [2.802183323381949]
本稿では,ディープニューラルネットワークに基づく言語モデルによって生成された文脈的埋め込みを視覚的に解析する手法を提案する。
我々のアプローチは自然言語処理のための言語探索から着想を得ており、タスクは言語構造のための言語モデルを探索するために設計されている。
論文 参考訳(メタデータ) (2020-09-05T15:40:51Z) - Fine-Grained Analysis of Cross-Linguistic Syntactic Divergences [18.19093600136057]
並列コーパスから任意の言語対の発散パターンを抽出するフレームワークを提案する。
我々のフレームワークは、言語間の相違の詳細な図を提供し、以前のアプローチを一般化し、完全に自動化することを示します。
論文 参考訳(メタデータ) (2020-05-07T13:05:03Z) - From text saliency to linguistic objects: learning linguistic
interpretable markers with a multi-channels convolutional architecture [2.064612766965483]
本稿では,分類プロセスを利用したテキストから解釈可能な言語オブジェクトを抽出するために,実装されたCNNの隠れ層を検査する手法を提案する。
我々は、英語とフランス語の2つの異なる言語からのコーパスに対するアプローチの効率を実証的に実証した。
論文 参考訳(メタデータ) (2020-04-07T10:46:58Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。