論文の概要: Non-Compositionality in Sentiment: New Data and Analyses
- arxiv url: http://arxiv.org/abs/2310.20656v1
- Date: Tue, 31 Oct 2023 17:25:07 GMT
- ステータス: 処理完了
- システム内更新日: 2023-11-01 13:50:13.413229
- Title: Non-Compositionality in Sentiment: New Data and Analyses
- Title(参考訳): 感情の非結合性:新しいデータと分析
- Authors: Verna Dankers and Christopher G. Lucas
- Abstract要約: 感情分析に関する多くのNLP研究は、感情計算が主に構成的であるという事実に焦点を当てている。
その代わりに、我々は、その感情に関するフレーズの非構成性評価を得ることにした。
- 参考スコア(独自算出の注目度): 11.43037731719907
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: When natural language phrases are combined, their meaning is often more than
the sum of their parts. In the context of NLP tasks such as sentiment analysis,
where the meaning of a phrase is its sentiment, that still applies. Many NLP
studies on sentiment analysis, however, focus on the fact that sentiment
computations are largely compositional. We, instead, set out to obtain
non-compositionality ratings for phrases with respect to their sentiment. Our
contributions are as follows: a) a methodology for obtaining those
non-compositionality ratings, b) a resource of ratings for 259 phrases --
NonCompSST -- along with an analysis of that resource, and c) an evaluation of
computational models for sentiment analysis using this new resource.
- Abstract(参考訳): 自然言語のフレーズが組み合わさると、その意味は部分の総和以上のものとなることが多い。
感情分析のようなnlpタスクの文脈では、フレーズの意味がその感情である場合、それはなお適用される。
しかし、感情分析に関する多くのNLP研究は、感情計算が主に構成的であるという事実に焦点を当てている。
その代わりに、我々は、その感情に関するフレーズの非構成性評価を得ることにした。
私たちの貢献は次のとおりです。
a) それらの非構成性評価を取得するための方法
b)259のフレーズ(NonCompSST)に対する評価のリソースとそのリソースの分析
c) この新たな資源を用いた感情分析のための計算モデルの評価
関連論文リスト
- SOUL: Towards Sentiment and Opinion Understanding of Language [96.74878032417054]
我々は、言語感覚とオピニオン理解(SOUL)と呼ばれる新しいタスクを提案する。
SOULは2つのサブタスクを通して感情理解を評価することを目的としている:レビュー(RC)と正当化生成(JG)。
論文 参考訳(メタデータ) (2023-10-27T06:48:48Z) - Natural Language Decompositions of Implicit Content Enable Better Text
Representations [56.85319224208865]
本稿では,暗黙的に伝達されたコンテンツを明示的に考慮したテキスト分析手法を提案する。
我々は大きな言語モデルを用いて、観察されたテキストと推論的に関係する命題の集合を生成する。
本研究は,NLPにおいて,文字のみではなく,観察された言語の背景にある意味をモデル化することが重要であることを示唆する。
論文 参考訳(メタデータ) (2023-05-23T23:45:20Z) - A Semantic Approach to Negation Detection and Word Disambiguation with
Natural Language Processing [1.0499611180329804]
本研究の目的は,テキストの語彙構造を一意に評価することで文中の否定を検出する方法を示すことである。
提案手法は,文の文脈的利用を解決するために,テキスト内の関連表現の特徴を全て検討する。
論文 参考訳(メタデータ) (2023-02-05T03:58:45Z) - Sentiment analysis and opinion mining on E-commerce site [0.0]
本研究の目的は,感情分析における感情極性分類の課題を解決することである。
全体的プロセスの説明とともに、感情的反対を分類する幅広い手法が提示される。
論文 参考訳(メタデータ) (2022-11-28T16:43:33Z) - Are Representations Built from the Ground Up? An Empirical Examination
of Local Composition in Language Models [91.3755431537592]
構成的・非構成的句を表現することは言語理解にとって重要である。
まず,より長いフレーズのLM-内部表現を,その構成成分から予測する問題を定式化する。
意味的構成性の人間の判断と相関する予測精度を期待するが、大部分はそうではない。
論文 参考訳(メタデータ) (2022-10-07T14:21:30Z) - A Weak Supervised Dataset of Fine-Grained Emotions in Portuguese [0.0]
本研究は,ポルトガル語の微粒な感情に対する語彙に基づく弱教師付きコーパスを作成するためのアプローチについて述べる。
その結果,低資源環境における初期作業の適切な戦略として,語彙に基づく弱監督が示唆された。
論文 参考訳(メタデータ) (2021-08-17T14:08:23Z) - On the Interplay Between Fine-tuning and Composition in Transformers [7.513100214864645]
本研究では,微調整が文脈的埋め込み能力に及ぼす影響について検討する。
具体的には、語彙重なりの大きい逆パラフレーズ分類タスクと感情分類タスクを微調整する。
微調整はこれらの表現における構成性の恩恵をほとんど得られないが、感情に関するトレーニングは特定のモデルに対して小さな局所的な利益をもたらす。
論文 参考訳(メタデータ) (2021-05-31T01:49:56Z) - Weakly-Supervised Aspect-Based Sentiment Analysis via Joint
Aspect-Sentiment Topic Embedding [71.2260967797055]
アスペクトベース感情分析のための弱教師付きアプローチを提案する。
We learn sentiment, aspects> joint topic embeddeds in the word embedding space。
次に、ニューラルネットワークを用いて単語レベルの識別情報を一般化する。
論文 参考訳(メタデータ) (2020-10-13T21:33:24Z) - Pareto Probing: Trading Off Accuracy for Complexity [87.09294772742737]
我々は,プローブの複雑性と性能の基本的なトレードオフを反映したプローブ計量について論じる。
係り受け解析による実験により,文脈表現と非文脈表現の統語的知識の幅広いギャップが明らかとなった。
論文 参考訳(メタデータ) (2020-10-05T17:27:31Z) - A Survey of Unsupervised Dependency Parsing [62.16714720135358]
教師なしの依存関係解析は、正しいパースツリーのアノテーションを持たない文から依存関係を学ぶことを目的としている。
その困難さにもかかわらず、教師なしの構文解析は、ほとんど無制限に注釈のないテキストデータを利用することができるため、興味深い研究方向である。
論文 参考訳(メタデータ) (2020-10-04T10:51:22Z) - Analysis and Evaluation of Language Models for Word Sense Disambiguation [18.001457030065712]
トランスフォーマーベースの言語モデルは、嵐によってNLPの多くの分野を取り込んでいる。
BERTは、ワードセンス毎に限られた数のサンプルが利用できる場合でも、高いレベルの感覚の区別を正確に捉えることができる。
BERTとその派生種は既存の評価ベンチマークの大部分を支配している。
論文 参考訳(メタデータ) (2020-08-26T15:07:07Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。