論文の概要: Explainable Sentence-Level Sentiment Analysis for Amazon Product Reviews
- arxiv url: http://arxiv.org/abs/2111.06070v1
- Date: Thu, 11 Nov 2021 06:35:42 GMT
- ステータス: 処理完了
- システム内更新日: 2021-11-12 13:06:36.939025
- Title: Explainable Sentence-Level Sentiment Analysis for Amazon Product Reviews
- Title(参考訳): amazon製品レビューで説明可能な文レベルの感情分析
- Authors: Xuechun Li, Xueyao Sun, Zewei Xu, Yifan Zhou
- Abstract要約: 単文の注意重み分布と主側面の注意重みを考察する。
アスペクト項は、文中の感情的な単語と同じ、あるいはそれ以上の注意重みを持つことがわかった。
- 参考スコア(独自算出の注目度): 2.599882743586164
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In this paper, we conduct a sentence level sentiment analysis on the product
reviews from Amazon and thorough analysis on the model interpretability. For
the sentiment analysis task, we use the BiLSTM model with attention mechanism.
For the study of interpretability, we consider the attention weights
distribution of single sentence and the attention weights of main aspect terms.
The model has an accuracy of up to 0.96. And we find that the aspect terms have
the same or even more attention weights than the sentimental words in
sentences.
- Abstract(参考訳): 本稿では,Amazonの製品レビューにおける文レベルの感情分析を行い,モデル解釈可能性に関する詳細な分析を行う。
感情分析タスクには、注意機構を備えたBiLSTMモデルを用いる。
解釈可能性の研究において、単文の注意重み分布と主アスペクト項の注意重み分布を考察する。
精度は0.96まで。
そして、アスペクト項は文中の感情的な単語と同じかそれ以上の注意重みを持つことがわかった。
関連論文リスト
- You Shall Know a Tool by the Traces it Leaves: The Predictability of Sentiment Analysis Tools [74.98850427240464]
感情分析ツールが同じデータセットで一致しないことを示す。
感傷的アノテーションに使用される感情ツールは,その結果から予測できることを示す。
論文 参考訳(メタデータ) (2024-10-18T17:27:38Z) - Do LLMs Think Fast and Slow? A Causal Study on Sentiment Analysis [136.13390762317698]
感性分析(SA)は、製品レビューのようなテキストで表される感情を特定することを目的としている。
レビューとそれに関連する感情を踏まえると、この研究は2つのタスクの組み合わせとしてSAを定式化します。
総感情スコアがすべての文レベル感情の平均を近似するとC1、総感情スコアがピークとエンドの感情の平均を近似するとC2と分類する。
論文 参考訳(メタデータ) (2024-04-17T04:04:34Z) - Sentiment analysis and opinion mining on E-commerce site [0.0]
本研究の目的は,感情分析における感情極性分類の課題を解決することである。
全体的プロセスの説明とともに、感情的反対を分類する幅広い手法が提示される。
論文 参考訳(メタデータ) (2022-11-28T16:43:33Z) - Causal Intervention Improves Implicit Sentiment Analysis [67.43379729099121]
インスツルメンタル・バリアブル(ISAIV)を用いたインシシット・センシティメント分析のための因果介入モデルを提案する。
まず、因果的視点から感情分析をレビューし、このタスクに存在する共同設立者を分析する。
そこで本研究では,文章と感情の因果関係を解消し,純粋因果関係を抽出するインストゥルメンタル変数を提案する。
論文 参考訳(メタデータ) (2022-08-19T13:17:57Z) - SBERT studies Meaning Representations: Decomposing Sentence Embeddings
into Explainable AMR Meaning Features [22.8438857884398]
非常に効果的な類似度メトリクスを作成しながら、評価の解釈可能な根拠を提供します。
まず、キーセマンティック・ファセットに対する文の類似性を測るAMRグラフメトリクスを選択します。
第二に、これらのメトリクスを用いてセマンティックな構造化文BERT埋め込みを誘導する。
論文 参考訳(メタデータ) (2022-06-14T17:37:18Z) - Human Interpretation of Saliency-based Explanation Over Text [65.29015910991261]
テキストデータ上でのサリエンシに基づく説明について検討する。
人はしばしば説明を誤って解釈する。
本稿では,過度知覚と過小認識のモデル推定に基づいて,サリエンシを調整する手法を提案する。
論文 参考訳(メタデータ) (2022-01-27T15:20:32Z) - Do Context-Aware Translation Models Pay the Right Attention? [61.25804242929533]
コンテキスト対応機械翻訳モデルは文脈情報を活用するように設計されているが、しばしば失敗する。
本稿では,人間の翻訳者が曖昧な単語を解くために使用する文脈について述べる。
SCAT(Supporting Context for Ambiguous Translations)は、14K翻訳のコンテキストワードをサポートする新しい英仏データセットです。
SCATを用いて,支援語の位置的特徴と語彙的特徴をあいまいにするために使用される文脈を詳細に分析する。
論文 参考訳(メタデータ) (2021-05-14T17:32:24Z) - Enhanced Aspect-Based Sentiment Analysis Models with Progressive
Self-supervised Attention Learning [103.0064298630794]
アスペクトベース感情分析(absa)では、多くのニューラルモデルに感情予測に対する各文脈単語の寄与を定量化するための注意機構が備わっている。
注目ABSAモデルに対する自己監督型注意学習の進歩的アプローチを提案する。
提案手法を3つの最先端の神経ABSAモデルに統合する。
論文 参考訳(メタデータ) (2021-03-05T02:50:05Z) - Structured Self-Attention Weights Encode Semantics in Sentiment Analysis [13.474141732019099]
感情分析タスクを考慮し,意味論をコード化する自己注意スコアを示す。
構造化された注意重みを解析するための簡易かつ効果的な注意追跡法を提案する。
この結果から,構造化された注意重みは感情分析におけるリッチな意味論を符号化し,人間による意味論の解釈と一致することがわかった。
論文 参考訳(メタデータ) (2020-10-10T06:49:25Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。