論文の概要: A SentiWordNet Strategy for Curriculum Learning in Sentiment Analysis
- arxiv url: http://arxiv.org/abs/2005.04749v2
- Date: Tue, 21 Jul 2020 19:47:35 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-05 01:46:14.573342
- Title: A SentiWordNet Strategy for Curriculum Learning in Sentiment Analysis
- Title(参考訳): 感性分析におけるカリキュラム学習のためのSentiWordNet戦略
- Authors: Vijjini Anvesh Rao, Kaveri Anuranjana and Radhika Mamidi
- Abstract要約: カリキュラム学習(英: Curriculum Learning, CL)とは、トレーニングセットの学習が、サンプルが簡単から難易度までの範囲で順序づけられたり順序付けられたりする考え方である。
本稿では,SentiWordNetが推進するカリキュラム学習の考え方を感情分析に応用する。
- 参考スコア(独自算出の注目度): 7.562843347215284
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Curriculum Learning (CL) is the idea that learning on a training set
sequenced or ordered in a manner where samples range from easy to difficult,
results in an increment in performance over otherwise random ordering. The idea
parallels cognitive science's theory of how human brains learn, and that
learning a difficult task can be made easier by phrasing it as a sequence of
easy to difficult tasks. This idea has gained a lot of traction in machine
learning and image processing for a while and recently in Natural Language
Processing (NLP). In this paper, we apply the ideas of curriculum learning,
driven by SentiWordNet in a sentiment analysis setting. In this setting, given
a text segment, our aim is to extract its sentiment or polarity. SentiWordNet
is a lexical resource with sentiment polarity annotations. By comparing
performance with other curriculum strategies and with no curriculum, the
effectiveness of the proposed strategy is presented. Convolutional, Recurrence,
and Attention-based architectures are employed to assess this improvement. The
models are evaluated on a standard sentiment dataset, Stanford Sentiment
Treebank.
- Abstract(参考訳): カリキュラム学習(cl)は、サンプルが容易から難しいものまで、順序付けされたり順序付けされたトレーニングセットで学習することで、ランダムな順序付けよりもパフォーマンスが向上するという考えである。
このアイデアは、人間の脳がどのように学習するかという認知科学の理論と平行であり、難しいタスクの学習は、それを簡単で難しいタスクのシーケンスとして記述することでより容易になる。
このアイデアは、機械学習と画像処理において、最近までNatural Language Processing(NLP)において、多くの注目を集めてきた。
本稿では,SentiWordNetが推進するカリキュラム学習の考え方を感情分析に応用する。
この設定では、テキストセグメントが与えられた場合、その感情や極性を抽出することを目的としています。
SentiWordNetは感情極性アノテーションを備えた語彙リソースである。
成績を他のカリキュラム戦略と比較し,カリキュラムなしで,提案手法の有効性を示す。
この改善を評価するために畳み込み、再帰、注意に基づくアーキテクチャが採用されている。
モデルは標準の感情データセットであるStanford Sentiment Treebankで評価される。
関連論文リスト
- Learning Beyond Pattern Matching? Assaying Mathematical Understanding in LLMs [58.09253149867228]
本稿では,LLMのドメイン知識を,問題解決に必要な数学的スキルの理解を通じて評価する。
汎用科学アシスタントとしてLLMを用いることで, LLMの確率分布の変化を評価するためにtextitNTKEvalを提案する。
系統的な分析では、文脈内学習中にドメイン理解の証拠が見つかる。
ある命令チューニングは、異なるデータでのトレーニングに関係なく、同様のパフォーマンス変化をもたらし、異なるスキルに対するドメイン理解の欠如を示唆している。
論文 参考訳(メタデータ) (2024-05-24T12:04:54Z) - VLLMs Provide Better Context for Emotion Understanding Through Common Sense Reasoning [66.23296689828152]
我々は、視覚・言語モデルの機能を活用し、文脈内感情分類を強化する。
第1段階では、VLLMが対象者の明らかな感情の自然言語で記述を生成できるように促すことを提案する。
第2段階では、記述を文脈情報として使用し、画像入力とともに、トランスフォーマーベースのアーキテクチャのトレーニングに使用する。
論文 参考訳(メタデータ) (2024-04-10T15:09:15Z) - A Tutorial on the Pretrain-Finetune Paradigm for Natural Language Processing [2.7038841665524846]
Pretrain-finetune パラダイムは、テキスト分析と自然言語処理における変換的アプローチを表している。
このチュートリアルは、プレトレイン-ファインチューンパラダイムの包括的な紹介を提供する。
論文 参考訳(メタデータ) (2024-03-04T21:51:11Z) - Human Inspired Progressive Alignment and Comparative Learning for
Grounded Word Acquisition [6.47452771256903]
我々は、人間の赤ちゃんが最初の言語をどのように習得するかからインスピレーションを得て、比較学習を通じて単語獲得のための計算プロセスを開発した。
認知的発見を動機として,様々な属性の類似点と相違点を計算モデルで比較できる小さなデータセットを作成した。
我々は、単語の獲得を情報フィルタリングのプロセスだけでなく、表現-シンボルマッピングにもとづいている。
論文 参考訳(メタデータ) (2023-07-05T19:38:04Z) - Sentiment-Aware Word and Sentence Level Pre-training for Sentiment
Analysis [64.70116276295609]
SentiWSPは、WordレベルとSentenceレベルの事前トレーニングタスクを組み合わせた、Sentiment対応の事前トレーニング言語モデルである。
SentiWSPは、様々な文レベルおよびアスペクトレベルの感情分類ベンチマーク上で、最先端のパフォーマンスを新たに達成する。
論文 参考訳(メタデータ) (2022-10-18T12:25:29Z) - A Weak Supervised Dataset of Fine-Grained Emotions in Portuguese [0.0]
本研究は,ポルトガル語の微粒な感情に対する語彙に基づく弱教師付きコーパスを作成するためのアプローチについて述べる。
その結果,低資源環境における初期作業の適切な戦略として,語彙に基づく弱監督が示唆された。
論文 参考訳(メタデータ) (2021-08-17T14:08:23Z) - Subsentence Extraction from Text Using Coverage-Based Deep Learning
Language Models [3.3461339691835277]
カバレッジに基づく感情・サブセンテンス抽出システムを提案する。
予測サブセンテンスは、感情を表す補助情報からなる。
我々のアプローチは、最先端のアプローチよりも、subsentence予測の大きなマージンで勝っている。
論文 参考訳(メタデータ) (2021-04-20T06:24:49Z) - Statistical Measures For Defining Curriculum Scoring Function [5.328970912536596]
実画像データセット上での畳み込みニューラルネットワークとフルコネクテッドニューラルネットワークの性能向上を示します。
暗黙のカリキュラム順序からの洞察に動機づけられ,簡単なカリキュラム学習戦略を導入する。
また,動的カリキュラム学習アルゴリズムの性能について提案・検討する。
論文 参考訳(メタデータ) (2021-02-27T07:25:49Z) - Concept Learners for Few-Shot Learning [76.08585517480807]
本研究では,人間の解釈可能な概念次元に沿って学習することで,一般化能力を向上させるメタ学習手法であるCOMETを提案する。
我々は,細粒度画像分類,文書分類,セルタイプアノテーションなど,さまざまな領域からの少数ショットタスクによるモデルの評価を行った。
論文 参考訳(メタデータ) (2020-07-14T22:04:17Z) - On Vocabulary Reliance in Scene Text Recognition [79.21737876442253]
ボキャブラリ内の単語を持つ画像に対して、手法は良好に機能するが、ボキャブラリ外の単語を持つ画像にはあまり一般化しない。
私たちはこの現象を「語彙依存」と呼んでいる。
本研究では,2家族のモデルが協調的に学習できるようにするための,シンプルで効果的な相互学習戦略を提案する。
論文 参考訳(メタデータ) (2020-05-08T11:16:58Z) - Exploring the Limits of Transfer Learning with a Unified Text-to-Text
Transformer [64.22926988297685]
下流タスクで微調整される前に、まずデータリッチタスクでモデルが事前訓練されるトランスファーラーニングは、自然言語処理(NLP)において強力な手法として登場した。
本稿では,すべてのテキストベースの言語問題をテキスト・トゥ・テキスト・フォーマットに変換する統一フレームワークにより,NLPのためのトランスファー学習手法を導入する状況について検討する。
論文 参考訳(メタデータ) (2019-10-23T17:37:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。