論文の概要: "Let's Eat Grandma": When Punctuation Matters in Sentence Representation
for Sentiment Analysis
- arxiv url: http://arxiv.org/abs/2101.03029v1
- Date: Thu, 10 Dec 2020 19:07:31 GMT
- ステータス: 処理完了
- システム内更新日: 2021-05-15 09:54:09.251770
- Title: "Let's Eat Grandma": When Punctuation Matters in Sentence Representation
for Sentiment Analysis
- Title(参考訳): 『Let's Eat Grandma』:感性分析のための文表現における句読点の意義
- Authors: Mansooreh Karami, Ahmadreza Mosallanezhad, Michelle V Mancenido, Huan
Liu
- Abstract要約: 我々は、句読点が感情分析において重要な役割を果たすと論じ、構文的および文脈的パフォーマンスを改善するための新しい表現モデルを提案する。
公開データセットの実験を行い、モデルが他の最先端のベースラインメソッドよりも正確に感情を識別することができることを確認します。
- 参考スコア(独自算出の注目度): 13.873803872380229
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Neural network-based embeddings have been the mainstream approach for
creating a vector representation of the text to capture lexical and semantic
similarities and dissimilarities. In general, existing encoding methods dismiss
the punctuation as insignificant information; consequently, they are routinely
eliminated in the pre-processing phase as they are shown to improve task
performance. In this paper, we hypothesize that punctuation could play a
significant role in sentiment analysis and propose a novel representation model
to improve syntactic and contextual performance. We corroborate our findings by
conducting experiments on publicly available datasets and verify that our model
can identify the sentiments more accurately over other state-of-the-art
baseline methods.
- Abstract(参考訳): ニューラルネットワークベースの埋め込みは、語彙的および意味的類似性と類似性を捉えるために、テキストのベクトル表現を作成するための主流のアプローチである。
一般に、既存の符号化法は句読点を重要でない情報として無視するので、タスク性能を向上させるために前処理段階では日常的に削除される。
本稿では,句読点が感情分析において重要な役割を果たすと仮定し,構文的・文脈的パフォーマンスを改善する新しい表現モデルを提案する。
我々は、公開データセットで実験を行い、我々のモデルが他の最先端のベースライン手法よりも正確に感情を識別できることを検証することで、我々の発見を裏付ける。
関連論文リスト
- How Well Do Text Embedding Models Understand Syntax? [50.440590035493074]
テキスト埋め込みモデルが幅広い構文的文脈にまたがって一般化する能力は、まだ解明されていない。
その結果,既存のテキスト埋め込みモデルは,これらの構文的理解課題に十分対応していないことが明らかとなった。
多様な構文シナリオにおけるテキスト埋め込みモデルの一般化能力を高めるための戦略を提案する。
論文 参考訳(メタデータ) (2023-11-14T08:51:00Z) - Sentence Representation Learning with Generative Objective rather than
Contrastive Objective [86.01683892956144]
句再構成に基づく新たな自己教師型学習目標を提案する。
我々の生成学習は、十分な性能向上を達成し、現在の最先端のコントラスト法よりも優れています。
論文 参考訳(メタデータ) (2022-10-16T07:47:46Z) - Improve Discourse Dependency Parsing with Contextualized Representations [28.916249926065273]
本稿では,異なるレベルの単位の文脈化表現を符号化するトランスフォーマーの活用を提案する。
記事間で共通に共有される記述パターンの観察に動機付けられ,談話関係の識別をシーケンスラベリングタスクとして扱う新しい手法を提案する。
論文 参考訳(メタデータ) (2022-05-04T14:35:38Z) - A Latent-Variable Model for Intrinsic Probing [93.62808331764072]
固有プローブ構築のための新しい潜在変数定式化を提案する。
我々は、事前訓練された表現が言語間交互に絡み合ったモルフォシンタクスの概念を発達させる経験的証拠を見出した。
論文 参考訳(メタデータ) (2022-01-20T15:01:12Z) - Transferring Semantic Knowledge Into Language Encoders [6.85316573653194]
意味的意味表現から言語エンコーダへ意味的知識を伝達する手法である意味型ミッドチューニングを導入する。
このアライメントは分類や三重項の損失によって暗黙的に学習できることを示す。
提案手法は, 推論, 理解, テキストの類似性, その他の意味的タスクにおいて, 予測性能の向上を示す言語エンコーダを生成する。
論文 参考訳(メタデータ) (2021-10-14T14:11:12Z) - On the Interplay Between Fine-tuning and Composition in Transformers [7.513100214864645]
本研究では,微調整が文脈的埋め込み能力に及ぼす影響について検討する。
具体的には、語彙重なりの大きい逆パラフレーズ分類タスクと感情分類タスクを微調整する。
微調整はこれらの表現における構成性の恩恵をほとんど得られないが、感情に関するトレーニングは特定のモデルに対して小さな局所的な利益をもたらす。
論文 参考訳(メタデータ) (2021-05-31T01:49:56Z) - Prototypical Representation Learning for Relation Extraction [56.501332067073065]
本論文では, 遠隔ラベルデータから予測可能, 解釈可能, 堅牢な関係表現を学習することを目的とする。
文脈情報から各関係のプロトタイプを学習し,関係の本質的意味を最善に探求する。
いくつかの関係学習タスクの結果,本モデルが従来の関係モデルを大きく上回っていることがわかった。
論文 参考訳(メタデータ) (2021-03-22T08:11:43Z) - Introducing Syntactic Structures into Target Opinion Word Extraction
with Deep Learning [89.64620296557177]
目的語抽出のためのディープラーニングモデルに文の構文構造を組み込むことを提案する。
また,ディープラーニングモデルの性能向上のために,新たな正規化手法を導入する。
提案モデルは,4つのベンチマークデータセット上での最先端性能を広範囲に解析し,達成する。
論文 参考訳(メタデータ) (2020-10-26T07:13:17Z) - Neural Deepfake Detection with Factual Structure of Text [78.30080218908849]
テキストのディープフェイク検出のためのグラフベースモデルを提案する。
我々のアプローチは、ある文書の事実構造をエンティティグラフとして表現する。
本モデルでは,機械生成テキストと人文テキストの事実構造の違いを識別することができる。
論文 参考訳(メタデータ) (2020-10-15T02:35:31Z) - Semantic Sentiment Analysis Based on Probabilistic Graphical Models and
Recurrent Neural Network [0.0]
本研究の目的は,確率的グラフィカルモデルとリカレントニューラルネットワークに基づく感情分析を行うためのセマンティクスの利用を検討することである。
実験で使用されたデータセットは、IMDB映画レビュー、Amazon Consumer Product Review、Twitter Reviewデータセットである。
論文 参考訳(メタデータ) (2020-08-06T11:59:00Z) - Analysing Lexical Semantic Change with Contextualised Word
Representations [7.071298726856781]
本稿では,BERTニューラルネットワークモデルを用いて単語使用率の表現を求める手法を提案する。
我々は新しい評価データセットを作成し、モデル表現と検出された意味変化が人間の判断と正に相関していることを示す。
論文 参考訳(メタデータ) (2020-04-29T12:18:14Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。