論文の概要: Studying Attention Models in Sentiment Attitude Extraction Task
- arxiv url: http://arxiv.org/abs/2006.11605v1
- Date: Sat, 20 Jun 2020 16:09:24 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-18 22:46:26.048948
- Title: Studying Attention Models in Sentiment Attitude Extraction Task
- Title(参考訳): 感情態度抽出課題における注意モデルの研究
- Authors: Nicolay Rusnachenko, Natalia Loukachevitch
- Abstract要約: 我々は,(i)特徴ベース,(ii)自己ベースという2種類の注意的文脈エンコーダを適応する。
ロシアの分析テキストRuSentRelのコーパスによる実験では、注意的エンコーダで訓練されたモデルは、それらを使わずに訓練されたモデルよりも優れていた。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In the sentiment attitude extraction task, the aim is to identify
<<attitudes>> -- sentiment relations between entities mentioned in text. In
this paper, we provide a study on attention-based context encoders in the
sentiment attitude extraction task. For this task, we adapt attentive context
encoders of two types: (i) feature-based; (ii) self-based. Our experiments with
a corpus of Russian analytical texts RuSentRel illustrate that the models
trained with attentive encoders outperform ones that were trained without them
and achieve 1.5-5.9% increase by F1. We also provide the analysis of attention
weight distributions in dependence on the term type.
- Abstract(参考訳): 感情態度抽出タスクでは,<attitudes>-- テキストで言及されたエンティティ間の感情関係を識別することを目的とする。
本稿では,感情態度抽出作業における注意に基づく文脈エンコーダの検討を行う。
このタスクでは、注意的コンテキストエンコーダを2つのタイプに適応させる。
(i)特徴に基づくもの
(ii)セルフベース。
RuSentRelによるロシアの分析テキストのコーパスによる実験では、注意エンコーダで訓練されたモデルは、訓練を受けずに訓練されたモデルよりも優れ、F1では1.5-5.9%向上した。
また,用語の種類に依存した注意重み分布の解析を行った。
関連論文リスト
- Analyzing (In)Abilities of SAEs via Formal Languages [14.71170261508271]
正規言語の合成テストベッド上でスパースオートエンコーダを訓練する。
パフォーマンスは、トレーニングパイプラインの帰納バイアスに敏感です。
我々は、因果関係がSAEトレーニングの中心的標的となる必要があると論じる。
論文 参考訳(メタデータ) (2024-10-15T16:42:13Z) - Two in One Go: Single-stage Emotion Recognition with Decoupled Subject-context Transformer [78.35816158511523]
単段階の感情認識手法として,DSCT(Decoupled Subject-Context Transformer)を用いる。
広範に使われている文脈認識型感情認識データセットであるCAER-SとEMOTICの単段階フレームワークの評価を行った。
論文 参考訳(メタデータ) (2024-04-26T07:30:32Z) - Identifying Semantic Induction Heads to Understand In-Context Learning [103.00463655766066]
自然言語に存在するトークン間の2種類の関係を,注目ヘッドが符号化するかどうかを検討する。
特定の注意ヘッドは、ヘッドトークンに出席する際、テールトークンをリコールし、テールトークンの出力ロジットを増加させるパターンを示す。
論文 参考訳(メタデータ) (2024-02-20T14:43:39Z) - SOUL: Towards Sentiment and Opinion Understanding of Language [96.74878032417054]
我々は、言語感覚とオピニオン理解(SOUL)と呼ばれる新しいタスクを提案する。
SOULは2つのサブタスクを通して感情理解を評価することを目的としている:レビュー(RC)と正当化生成(JG)。
論文 参考訳(メタデータ) (2023-10-27T06:48:48Z) - Where's the Learning in Representation Learning for Compositional
Semantics and the Case of Thematic Fit [0.0]
意味的役割予測や主題的適合推定のような特定のNLPタスクに対して、ランダムな埋め込みは事前訓練された埋め込みと同様に機能することを観察する。
課題と学習目標との関係により, ニュアンスな回答が得られている。
論文 参考訳(メタデータ) (2022-08-09T12:37:46Z) - Explaining, Evaluating and Enhancing Neural Networks' Learned
Representations [2.1485350418225244]
より効率的で効率的な表現への障害ではなく、いかに説明可能性が助けになるかを示す。
我々は,2つの新しいスコアを定義して,潜伏埋め込みの難易度と難易度を評価する。
表現学習課題の訓練において,提案したスコアを制約として採用することで,モデルの下流性能が向上することを示す。
論文 参考訳(メタデータ) (2022-02-18T19:00:01Z) - A Latent-Variable Model for Intrinsic Probing [93.62808331764072]
固有プローブ構築のための新しい潜在変数定式化を提案する。
我々は、事前訓練された表現が言語間交互に絡み合ったモルフォシンタクスの概念を発達させる経験的証拠を見出した。
論文 参考訳(メタデータ) (2022-01-20T15:01:12Z) - Weakly-Supervised Aspect-Based Sentiment Analysis via Joint
Aspect-Sentiment Topic Embedding [71.2260967797055]
アスペクトベース感情分析のための弱教師付きアプローチを提案する。
We learn sentiment, aspects> joint topic embeddeds in the word embedding space。
次に、ニューラルネットワークを用いて単語レベルの識別情報を一般化する。
論文 参考訳(メタデータ) (2020-10-13T21:33:24Z) - Structured Self-Attention Weights Encode Semantics in Sentiment Analysis [13.474141732019099]
感情分析タスクを考慮し,意味論をコード化する自己注意スコアを示す。
構造化された注意重みを解析するための簡易かつ効果的な注意追跡法を提案する。
この結果から,構造化された注意重みは感情分析におけるリッチな意味論を符号化し,人間による意味論の解釈と一致することがわかった。
論文 参考訳(メタデータ) (2020-10-10T06:49:25Z) - Attention-Based Neural Networks for Sentiment Attitude Extraction using
Distant Supervision [0.0]
我々は,(1)特徴ベース,(2)自己ベースという2種類の注意的文脈エンコーダを適応させる。
RuSentRelコーパスを用いた実験では、トレーニングにRuAttitudesコーパスを使用する3クラス分類モデルが10%増加し、F1により3%余分に増加した。
論文 参考訳(メタデータ) (2020-06-23T13:54:48Z) - Salience Estimation with Multi-Attention Learning for Abstractive Text
Summarization [86.45110800123216]
テキスト要約のタスクでは、単語、フレーズ、文のサリエンス推定が重要な要素である。
本稿では,サラレンス推定のための2つの新しい注目学習要素を含むマルチアテンション学習フレームワークを提案する。
論文 参考訳(メタデータ) (2020-04-07T02:38:56Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。