論文の概要: A Novel Deep Learning Method for Textual Sentiment Analysis
- arxiv url: http://arxiv.org/abs/2102.11651v1
- Date: Tue, 23 Feb 2021 12:11:36 GMT
- ステータス: 処理完了
- システム内更新日: 2021-02-25 01:13:32.958079
- Title: A Novel Deep Learning Method for Textual Sentiment Analysis
- Title(参考訳): テキスト感情分析のための新しい深層学習法
- Authors: Hossein Sadr, Mozhdeh Nazari Solimandarabi, Mir Mohsen Pedram,
Mohammad Teshnehlab
- Abstract要約: 本稿では,階層的注意層を統合した畳み込みニューラルネットワークを提案する。
提案モデルでは,分類精度が高く,情報的単語を抽出できる。
インクリメンタル転送学習を適用すると、分類性能が大幅に向上します。
- 参考スコア(独自算出の注目度): 3.0711362702464675
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Sentiment analysis is known as one of the most crucial tasks in the field of
natural language processing and Convolutional Neural Network (CNN) is one of
those prominent models that is commonly used for this aim. Although
convolutional neural networks have obtained remarkable results in recent years,
they are still confronted with some limitations. Firstly, they consider that
all words in a sentence have equal contributions in the sentence meaning
representation and are not able to extract informative words. Secondly, they
require a large number of training data to obtain considerable results while
they have many parameters that must be accurately adjusted. To this end, a
convolutional neural network integrated with a hierarchical attention layer is
proposed which is able to extract informative words and assign them higher
weight. Moreover, the effect of transfer learning that transfers knowledge
learned in the source domain to the target domain with the aim of improving the
performance is also explored. Based on the empirical results, the proposed
model not only has higher classification accuracy and can extract informative
words but also applying incremental transfer learning can significantly enhance
the classification performance.
- Abstract(参考訳): 感性分析は自然言語処理の分野で最も重要なタスクの1つとして知られており、畳み込みニューラルネットワーク(CNN)はこの目的のために一般的に使用される顕著なモデルの1つである。
近年、畳み込みニューラルネットワークは目覚ましい成果を上げているが、いくつかの制限に直面している。
第一に、文中のすべての単語は文の意味表現に等しく貢献しており、有益な単語を抽出できないと考える。
第二に、十分な結果を得るために大量のトレーニングデータが必要ですが、正確な調整が必要なパラメータはたくさんあります。
この目的のために,情報的単語の抽出と重み付けが可能な階層的注意層と統合された畳み込みニューラルネットワークを提案する。
さらに、ソースドメインで学んだ知識を、パフォーマンスの向上を目的としたターゲットドメインに転送する転送学習の効果についても検討する。
実験結果に基づき, 分類精度が高く, 情報的単語を抽出できるだけでなく, インクリメンタルトランスファー学習を適用すれば, 分類性能が大幅に向上する。
関連論文リスト
- An Empirical Investigation of Commonsense Self-Supervision with
Knowledge Graphs [67.23285413610243]
大規模知識グラフから抽出した情報に基づく自己監督は、言語モデルの一般化を改善することが示されている。
本研究では,言語モデルに適用可能な合成データを生成するための知識サンプリング戦略とサイズの影響について検討する。
論文 参考訳(メタデータ) (2022-05-21T19:49:04Z) - Inducing Gaussian Process Networks [80.40892394020797]
本稿では,特徴空間と誘導点を同時に学習するシンプルなフレームワークであるGaussian Process Network (IGN)を提案する。
特に誘導点は特徴空間で直接学習され、複雑な構造化領域のシームレスな表現を可能にする。
実世界のデータセットに対する実験結果から,IGNは最先端の手法よりも大幅に進歩していることを示す。
論文 参考訳(メタデータ) (2022-04-21T05:27:09Z) - Data-driven emergence of convolutional structure in neural networks [83.4920717252233]
識別タスクを解くニューラルネットワークが、入力から直接畳み込み構造を学習できることを示す。
データモデルを慎重に設計することにより、このパターンの出現は、入力の非ガウス的、高次局所構造によって引き起こされることを示す。
論文 参考訳(メタデータ) (2022-02-01T17:11:13Z) - Context Decoupling Augmentation for Weakly Supervised Semantic
Segmentation [53.49821324597837]
微調整されたセマンティックセグメンテーションは、近年深く研究されている困難な問題です。
本稿では、オブジェクトが現れる固有のコンテキストを変更する Context Decoupling Augmentation (CDA) メソッドを紹介します。
提案手法の有効性を検証するため, PASCAL VOC 2012データセットにいくつかの代替ネットワークアーキテクチャを用いた広範な実験を行い, CDAが様々なWSSS手法を新たな最先端技術に拡張できることを実証した。
論文 参考訳(メタデータ) (2021-03-02T15:05:09Z) - Be More with Less: Hypergraph Attention Networks for Inductive Text
Classification [56.98218530073927]
グラフニューラルネットワーク(GNN)は、研究コミュニティで注目され、この標準タスクで有望な結果を実証している。
成功にもかかわらず、それらのパフォーマンスは、単語間の高次相互作用をキャプチャできないため、実際は大部分が危険に晒される可能性がある。
本稿では,テキスト表現学習において,少ない計算量でより表現力の高いハイパーグラフアテンションネットワーク(HyperGAT)を提案する。
論文 参考訳(メタデータ) (2020-11-01T00:21:59Z) - Malicious Network Traffic Detection via Deep Learning: An Information
Theoretic View [0.0]
本研究では,ホメオモルフィズムがマルウェアのトラフィックデータセットの学習表現に与える影響について検討する。
この結果から,学習された表現の詳細と,すべてのパラメータの多様体上で定義された特定の座標系は,関数近似とは全く異なることが示唆された。
論文 参考訳(メタデータ) (2020-09-16T15:37:44Z) - Deep Learning based, end-to-end metaphor detection in Greek language
with Recurrent and Convolutional Neural Networks [0.0]
本稿では,ギリシャ語におけるメタファ検出のための,エンドツーエンドのDeep Learningベースモデルを多数提示し,ベンチマークする。
畳み込みニューラルネットワークとリカレントニューラルネットワークと表現学習を組み合わせることで,ギリシャ語のメタファ検出問題に対処する。
論文 参考訳(メタデータ) (2020-07-23T12:02:40Z) - Adversarially-Trained Deep Nets Transfer Better: Illustration on Image
Classification [53.735029033681435]
トランスファーラーニングは、訓練済みのディープニューラルネットワークを画像認識タスクに新しいドメインに適用するための強力な方法論である。
本研究では,非逆学習モデルよりも逆学習モデルの方が優れていることを示す。
論文 参考訳(メタデータ) (2020-07-11T22:48:42Z) - An Evaluation of Recent Neural Sequence Tagging Models in Turkish Named
Entity Recognition [5.161531917413708]
本研究では,条件付きランダムフィールド層を有する変圧器ベースネットワークを提案する。
本研究は,移動学習が形態的に豊かな言語処理に与える影響を定量化する文献に寄与する。
論文 参考訳(メタデータ) (2020-05-14T06:54:07Z) - Neurals Networks for Projecting Named Entities from English to Ewondo [6.058868817939519]
本稿では、リッチ言語から低リソース言語へ名前付きエンティティを投影するための新しい単語分布表現を提案する。
提案手法は良好な結果を得たが, 使用したニューラルネットワークのサイズが大きすぎた。
本稿では,より小さなニューラルネットワークを用いて,同じ結果が得られることを示す。
論文 参考訳(メタデータ) (2020-03-29T22:05:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。