論文の概要: Aspect-based Sentiment Analysis through EDU-level Attentions
- arxiv url: http://arxiv.org/abs/2202.02535v1
- Date: Sat, 5 Feb 2022 11:26:40 GMT
- ステータス: 処理完了
- システム内更新日: 2022-02-11 11:01:37.707652
- Title: Aspect-based Sentiment Analysis through EDU-level Attentions
- Title(参考訳): EDUレベルの注意によるアスペクトベース感性分析
- Authors: Ting Lin and Aixin Sun and Yequan Wang
- Abstract要約: 文は複数の側面について感情を表現することができる。
これらの側面が異なる感情の極性と関連付けられている場合、モデルの精度はしばしば悪影響を受けます。
本稿では,文モデルにおけるEDU境界について考察し,単語レベルとEDUレベルに注目する。
- 参考スコア(独自算出の注目度): 24.263559694090464
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: A sentence may express sentiments on multiple aspects. When these aspects are
associated with different sentiment polarities, a model's accuracy is often
adversely affected. We observe that multiple aspects in such hard sentences are
mostly expressed through multiple clauses, or formally known as elementary
discourse units (EDUs), and one EDU tends to express a single aspect with
unitary sentiment towards that aspect. In this paper, we propose to consider
EDU boundaries in sentence modeling, with attentions at both word and EDU
levels. Specifically, we highlight sentiment-bearing words in EDU through
word-level sparse attention. Then at EDU level, we force the model to attend to
the right EDU for the right aspect, by using EDU-level sparse attention and
orthogonal regularization. Experiments on three benchmark datasets show that
our simple EDU-Attention model outperforms state-of-the-art baselines. Because
EDU can be automatically segmented with high accuracy, our model can be applied
to sentences directly without the need of manual EDU boundary annotation.
- Abstract(参考訳): 文は複数の側面について感情を表現することができる。
これらの側面が異なる感情極性と関連づけられる場合、モデルの精度はしばしば悪影響を受ける。
このような硬文の複数の側面は、主に複数の節、または正式には初等談話単位(英語版)(EDU)によって表現され、一方のEDUは、その側面に対して一意的な感情を持った一つの側面を表現する傾向にある。
本稿では,文モデルにおけるEDU境界について考察し,単語レベルとEDUレベルに注目する。
具体的には,EDUにおける感傷的単語を単語単位のスパース・アテンションによって強調する。
次に,EDUレベルでは,EDUレベルのスパースアテンションと直交正則化を用いて,正しい面の適切なEDUへの参加を強制する。
3つのベンチマークデータセットの実験から、私たちの単純なEDU-Attentionモデルは最先端のベースラインよりも優れています。
EDUを高い精度で自動的にセグメント化できるので、手動のEDU境界アノテーションを必要とせずに、我々のモデルは文に直接適用することができる。
関連論文リスト
- Sentiment-enhanced Graph-based Sarcasm Explanation in Dialogue [67.09698638709065]
本稿では,SEntiment-enhanceD Graph を用いたマルチモーダルサルカズム記述フレームワーク EDGE を提案する。
特に,まずレキシコン誘導型発話感情推論モジュールを提案し,そこでは発話感情改善戦略を考案する。
次に,マルチモーダル感情分析モデル JCA を拡張し,映像音声クリップ毎に共同感情ラベルを導出することにより,JCA-SI (Joint Cross Attention-based Sentiment Inference) というモジュールを開発する。
論文 参考訳(メタデータ) (2024-02-06T03:14:46Z) - A Unified Approach to Emotion Detection and Task-Oriented Dialogue
Modeling [0.0]
ユーザ感情検出はテキストベースのタスク指向対話システムでは見過ごされがちである。
EDとTODモデリングをシームレスに統一することは相互に利益をもたらすことを示す。
論文 参考訳(メタデータ) (2024-01-24T20:17:11Z) - Semantic-aware Contrastive Learning for Electroencephalography-to-Text
Generation with Curriculum Learning [28.76185264077582]
脳波対テキスト生成のためのC-SCL(Curriculum Semantic-aware Contrastive Learning Strategy)を提案する。
C-SCLは、意味的に類似したEEG表現をまとめ、異なる表現を分割する。
提案手法は,新しい最先端技術を実現しつつ,3種類の指標にまたがる安定した改善を示す。
論文 参考訳(メタデータ) (2023-01-23T00:54:48Z) - A Vision-free Baseline for Multimodal Grammar Induction [123.0364325619215]
テキストでのみ訓練された大規模言語モデル(LLM)の進歩が,マルチモーダル環境における文法誘導の強力な支援となるかを検討する。
テキストのみのアプローチであるLCMベースのC-PCFGは,従来のマルチモーダル手法よりも優れていた。
これらの結果は、テキストのみの言語モデルには、マルチモーダルな文脈における文法の帰納を支援する視覚的な接頭辞が含まれるかもしれないという概念を浮き彫りにした。
論文 参考訳(メタデータ) (2022-12-20T18:59:50Z) - EDU-level Extractive Summarization with Varying Summary Lengths [11.617377170925895]
本稿では,EDUと文に基づくモデルの性能の上限を比較するために,オラクル分析を実施している。
本稿では,このEDUのメリットを考慮し,Varying summary Lengths (EDU-VL) を用いたEDUレベルの抽出モデルを提案し,それに対応する学習アルゴリズムを開発した。
論文 参考訳(メタデータ) (2022-10-08T14:09:58Z) - Anticipating the Unseen Discrepancy for Vision and Language Navigation [63.399180481818405]
視覚言語ナビゲーションでは、エージェントは特定のターゲットに到達するために自然言語命令に従う必要がある。
目に見える環境と目に見えない環境の間に大きな違いがあるため、エージェントがうまく一般化することは困難である。
本研究では,テストタイムの視覚的整合性を促進することによって,未知の環境への一般化を学習する,未知の離散性予測ビジョンと言語ナビゲーション(DAVIS)を提案する。
論文 参考訳(メタデータ) (2022-09-10T19:04:40Z) - Detecting fake news by enhanced text representation with
multi-EDU-structure awareness [16.47473788477675]
偽ニュース検出のためのテキスト表現を改善するためのマルチEDU構造認識モデルを提案する。
マルチEDU構造認識のために,シーケンスベースEDU表現とグラフベースEDU表現を構築した。
4つのクロスソースフェイクニュースデータセットの実験により、我々のモデルは最先端のテキストベースの手法よりも優れていることが示された。
論文 参考訳(メタデータ) (2022-05-30T14:32:14Z) - Dependency Induction Through the Lens of Visual Perception [81.91502968815746]
本稿では,単語の具体性を利用した教師なし文法帰納モデルと,構成的視覚に基づく構成的文法を共同学習する手法を提案する。
実験により,提案した拡張は,文法的サイズが小さい場合でも,現在最先端の視覚的接地モデルよりも優れた性能を示すことが示された。
論文 参考訳(メタデータ) (2021-09-20T18:40:37Z) - Video-aided Unsupervised Grammar Induction [108.53765268059425]
ラベルのないテキストと対応するビデオの両方から構成を学習するビデオ支援文法インダクションについて検討する。
ビデオは、静的オブジェクトだけでなく、動詞句を誘導するのに有用なアクションや状態の変更を含む、さらに豊富な情報を提供します。
マルチモードコンパウンドPCFGモデル(MMC-PCFG)を提案し,これらの豊富な特徴を異なるモダリティから効果的に集約する。
論文 参考訳(メタデータ) (2021-04-09T14:01:36Z) - Discern: Discourse-Aware Entailment Reasoning Network for Conversational
Machine Reading [157.14821839576678]
Discernは、ドキュメントとダイアログの両方の理解を強化するために、接続を強化し、理解を深める、談話対応の係り受け推論ネットワークである。
実験の結果,意思決定におけるマクロ平均精度78.3%,フォローアップ質問生成における64.0 BLEU1が得られた。
論文 参考訳(メタデータ) (2020-10-05T07:49:51Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。