論文の概要: A Systematic Comparison of Architectures for Document-Level Sentiment
Classification
- arxiv url: http://arxiv.org/abs/2002.08131v2
- Date: Wed, 2 Feb 2022 13:26:52 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-30 12:59:26.823527
- Title: A Systematic Comparison of Architectures for Document-Level Sentiment
Classification
- Title(参考訳): 文書レベル感性分類のためのアーキテクチャの体系的比較
- Authors: Jeremy Barnes and Vinit Ravishankar and Lilja {\O}vrelid and Erik
Velldal
- Abstract要約: 文書レベルの感情分類における階層モデルと伝達学習を比較した。
5つの言語において,非自明な階層モデルが過去のベースラインを上回り,文書レベルの感情分類に基づく伝達学習を行うことを示す。
- 参考スコア(独自算出の注目度): 14.670220716382515
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: Documents are composed of smaller pieces - paragraphs, sentences, and tokens
- that have complex relationships between one another. Sentiment classification
models that take into account the structure inherent in these documents have a
theoretical advantage over those that do not. At the same time, transfer
learning models based on language model pretraining have shown promise for
document classification. However, these two paradigms have not been
systematically compared and it is not clear under which circumstances one
approach is better than the other. In this work we empirically compare
hierarchical models and transfer learning for document-level sentiment
classification. We show that non-trivial hierarchical models outperform
previous baselines and transfer learning on document-level sentiment
classification in five languages.
- Abstract(参考訳): 文書は、互いに複雑な関係を持つ小さな断片(段落、文、トークン)で構成されている。
これらの文書に固有の構造を考慮に入れた感性分類モデルは、そうでないものに対して理論的に有利である。
同時に、言語モデル事前学習に基づく伝達学習モデルも文書分類の可能性を示唆している。
しかし、これらの2つのパラダイムは体系的に比較されておらず、どの状況下で1つのアプローチが他方よりも優れているかは明らかではない。
本研究では,文書レベルの感情分類のための階層モデルと伝達学習を実証的に比較する。
5つの言語において,非自明な階層モデルが過去のベースラインを上回り,文書レベルの感情分類に基づく伝達学習を行うことを示す。
関連論文リスト
- Language Models for Text Classification: Is In-Context Learning Enough? [54.869097980761595]
最近の基礎言語モデルでは、ゼロショットや少数ショットの設定で多くのNLPタスクで最先端のパフォーマンスが示されている。
より標準的なアプローチよりもこれらのモデルの利点は、自然言語(prompts)で書かれた命令を理解する能力である。
これにより、アノテーション付きインスタンスが限られているドメインのテキスト分類問題に対処するのに適している。
論文 参考訳(メタデータ) (2024-03-26T12:47:39Z) - On Search Strategies for Document-Level Neural Machine Translation [51.359400776242786]
文書レベルのニューラルネットワーク変換(NMT)モデルは、ドキュメント全体にわたってより一貫性のある出力を生成する。
そこで本研究では,デコードにおける文脈認識翻訳モデルをどのように活用するか,という質問に答えることを目的としている。
論文 参考訳(メタデータ) (2023-06-08T11:30:43Z) - Towards Unsupervised Recognition of Token-level Semantic Differences in
Related Documents [61.63208012250885]
意味的差異をトークンレベルの回帰タスクとして認識する。
マスク付き言語モデルに依存する3つの教師なしアプローチについて検討する。
その結果,単語アライメントと文レベルのコントラスト学習に基づくアプローチは,ゴールドラベルと強い相関関係があることが示唆された。
論文 参考訳(メタデータ) (2023-05-22T17:58:04Z) - Inspecting class hierarchies in classification-based metric learning
models [0.0]
我々は、ベンチマークと実世界のデータセット上で、いくつかのトレーニングオプションを備えたソフトマックス分類器と3つのメトリック学習モデルを訓練する。
我々は,学習したクラスの代表者や階層的インフォームドのパフォーマンス,すなわち分類性能とメートル法学習性能を事前に定義された階層構造を考慮し,階層的推論性能を評価する。
論文 参考訳(メタデータ) (2023-01-26T12:40:12Z) - Unsupervised Document Embedding via Contrastive Augmentation [48.71917352110245]
本稿では,教師なしで文書表現を学習するためのデータ拡張手法と対比学習手法を提案する。
画像と事前学習に使われる最近のコントラスト的自己教師付き学習アルゴリズムに触発されて、高品質な文書埋め込みは様々なパラフレーズに不変であるべきだと仮定した。
本手法は,文書分類作業におけるSOTA手法よりも最大6.4%の分類誤差率を減少させることができる。
論文 参考訳(メタデータ) (2021-03-26T15:48:52Z) - Improving Document-Level Sentiment Classification Using Importance of
Sentences [3.007949058551534]
深層ニューラルネットワークに基づく文書レベルの文分類モデルを提案する。
映画レビュー,ホテルレビュー,レストランレビュー,音楽レビューなど,4つの異なる領域における感情データセットを用いた実験を行った。
実験の結果,文書レベルの感情分類タスクでは文の重要性を考慮すべきであることがわかった。
論文 参考訳(メタデータ) (2021-03-09T01:29:08Z) - A Comparison of Approaches to Document-level Machine Translation [34.2276281264886]
本稿では,文書レベルの現象評価スイートに対して選択したアプローチを体系的に比較する。
我々は,単言語文書レベルでのバック翻訳に基づく単純な手法が,より精巧な代替手段として機能することを見出した。
論文 参考訳(メタデータ) (2021-01-26T19:21:09Z) - Text Classification Using Label Names Only: A Language Model
Self-Training Approach [80.63885282358204]
現在のテキスト分類法は、訓練データとして多くの人ラベルの文書を必要とするのが一般的である。
本モデルでは,トピック分類や感情分類を含む4つのベンチマークデータセットにおいて,約90%の精度が得られた。
論文 参考訳(メタデータ) (2020-10-14T17:06:41Z) - Aspect-based Document Similarity for Research Papers [4.661692753666685]
文書分類タスクのペア化によってアスペクト情報との類似性を拡張する。
研究論文のアスペクトベースの文書類似性を評価する。
以上の結果から,SciBERTは最高の演奏システムであることがわかった。
論文 参考訳(メタデータ) (2020-10-13T13:51:21Z) - SPECTER: Document-level Representation Learning using Citation-informed
Transformers [51.048515757909215]
SPECTERは、Transformer言語モデルの事前学習に基づいて、科学文書の文書レベルの埋め込みを生成する。
SciDocsは、引用予測から文書分類、レコメンデーションまでの7つの文書レベルのタスクからなる新しい評価ベンチマークである。
論文 参考訳(メタデータ) (2020-04-15T16:05:51Z) - Pairwise Multi-Class Document Classification for Semantic Relations
between Wikipedia Articles [5.40541521227338]
2つの文書間の関係をペアワイズ文書分類タスクとして検索する問題をモデル化する。
文書間の意味的関係を見つけるために,GloVe, paragraph-s,BERT,XLNetなどの一連の手法を適用する。
我々は,新たに提案された32,168のウィキペディア記事ペアと,セマンティックドキュメントの関係を定義するウィキデータプロパティに関する実験を行った。
論文 参考訳(メタデータ) (2020-03-22T12:52:56Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。