論文の概要: Generating Effective Ensembles for Sentiment Analysis
- arxiv url: http://arxiv.org/abs/2402.16700v1
- Date: Mon, 26 Feb 2024 16:14:47 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-28 20:12:38.623313
- Title: Generating Effective Ensembles for Sentiment Analysis
- Title(参考訳): 感性分析のための効果的なアンサンブルの生成
- Authors: Itay Etelis, Avi Rosenfeld, Abraham Itzhak Weinberg, David Sarne
- Abstract要約: 感性分析におけるこれらのアンサンブルの精度をさらに向上させる鍵は、トランスフォーマーだけでなく、従来のNLPモデルを含めることである。
8つの標準SAデータセットにわたる実証研究により、HECを介して構築されたモデルタイプを組み込んだアンサンブルが、従来のアンサンブルよりも大幅に優れていたことが判明した。
- 参考スコア(独自算出の注目度): 4.178382980763477
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In recent years, transformer models have revolutionized Natural Language
Processing (NLP), achieving exceptional results across various tasks, including
Sentiment Analysis (SA). As such, current state-of-the-art approaches for SA
predominantly rely on transformer models alone, achieving impressive accuracy
levels on benchmark datasets. In this paper, we show that the key for further
improving the accuracy of such ensembles for SA is to include not only
transformers, but also traditional NLP models, despite the inferiority of the
latter compared to transformer models. However, as we empirically show, this
necessitates a change in how the ensemble is constructed, specifically relying
on the Hierarchical Ensemble Construction (HEC) algorithm we present. Our
empirical studies across eight canonical SA datasets reveal that ensembles
incorporating a mix of model types, structured via HEC, significantly
outperform traditional ensembles. Finally, we provide a comparative analysis of
the performance of the HEC and GPT-4, demonstrating that while GPT-4 closely
approaches state-of-the-art SA methods, it remains outperformed by our proposed
ensemble strategy.
- Abstract(参考訳): 近年、トランスフォーマーモデルは自然言語処理(NLP)に革命をもたらし、感性分析(SA)など様々なタスクで例外的な成果を上げている。
そのため、現在のSAの最先端のアプローチは、主にトランスフォーマーモデルのみに依存しており、ベンチマークデータセット上で印象的な精度レベルを実現している。
本稿では, トランスモデルよりもトランスモデルの方が劣っているにもかかわらず, トランスモデルだけでなく, 従来のNLPモデルも組み込むことで, SAのアンサンブルの精度を向上する鍵となることを示す。
しかし、実証的に示すように、これはアンサンブルの構築方法の変更を必要とし、特に我々が提示する階層型アンサンブル構成(HEC)アルゴリズムに依存している。
8つの標準SAデータセットにわたる実証研究により、HECを介して構築されたモデルタイプを組み込んだアンサンブルが、従来のアンサンブルよりも大幅に優れていることが明らかになった。
最後に, HEC と GPT-4 の性能の比較分析を行い, GPT-4 が最先端の SA 手法に近づきつつも, 提案したアンサンブル戦略に勝っていることを示す。
関連論文リスト
- Instruct-DeBERTa: A Hybrid Approach for Aspect-based Sentiment Analysis on Textual Reviews [2.0143010051030417]
Aspect-based Sentiment Analysis (ABSA)は自然言語処理(NLP)における重要な課題である
従来の感情分析手法は、全体的な感情を決定するのに有用だが、特定の製品やサービス機能に関する暗黙の意見を見逃すことが多い。
本稿では、レキシコンベースのアプローチから機械学習まで、ABSA方法論の進化を包括的に概観する。
論文 参考訳(メタデータ) (2024-08-23T16:31:07Z) - Diversity-Aware Ensembling of Language Models Based on Topological Data
Analysis [3.1734682813501514]
既存のアプローチは主に、各モデルに等しい重みを持つアンサンブルによる予測の単純な平均化に依存している。
我々は,NLPモデルのアンサンブルに対する重み付けを,個々の性能の知識だけでなく,互いに類似した知識を用いて推定することを提案する。
論文 参考訳(メタデータ) (2024-02-22T00:04:21Z) - Gemini vs GPT-4V: A Preliminary Comparison and Combination of
Vision-Language Models Through Qualitative Cases [98.35348038111508]
本稿では,Google の Gemini と OpenAI の GPT-4V(ision) の2つのパイオニアモデルについて,詳細な比較研究を行った。
分析の核となるのは、各モデルの視覚的理解能力である。
両モデルのユニークな強みとニッチを照らし出した。
論文 参考訳(メタデータ) (2023-12-22T18:59:58Z) - A Cognitive Study on Semantic Similarity Analysis of Large Corpora: A
Transformer-based Approach [0.0]
我々は,従来の技術とトランスフォーマー技術の両方を用いて,米国特許法とPhrase Matchingデータセットのセマンティック類似性解析とモデリングを行う。
実験の結果,従来の手法と比較して手法の性能が向上し,平均ピアソン相関スコアは0.79。
論文 参考訳(メタデータ) (2022-07-24T11:06:56Z) - What do Toothbrushes do in the Kitchen? How Transformers Think our World
is Structured [137.83584233680116]
本稿では,トランスフォーマーに基づく言語モデルがオブジェクト関係に関する知識を抽出するのにどの程度役立つかを検討する。
異なる類似度尺度と組み合わせたモデルが,抽出できる知識の量で大きく異なることを示す。
驚くべきことに、静的モデルは、コンテキスト化されたモデルと同様に、ほぼ同じようにパフォーマンスします。
論文 参考訳(メタデータ) (2022-04-12T10:00:20Z) - Evaluating State of the Art, Forecasting Ensembles- and Meta-learning
Strategies for Model Fusion [0.0]
本稿では,異なるアンサンブルに対するベースモデルのプール内での指数平滑化リカレントニューラルネットワーク(ES-RNN)の有用性について述べる。
論文 参考訳(メタデータ) (2022-03-07T10:51:40Z) - The DONUT Approach to EnsembleCombination Forecasting [0.0]
本稿では,M4Competitionデータセット上で強力な結果を示すアンサンブル予測手法を提案する。
提案手法は,主に自動生成機能と,より多様なモデルプールで構成され,統計的特徴に基づくアンサンブル法であるFFORMAよりも優れていた。
また,M4データセット上での線形最適化による差分を定量化するために,アンサンブルの最適組み合わせと選択に関する公式なポストファクト解析を行った。
論文 参考訳(メタデータ) (2022-01-02T22:19:26Z) - Sparse MoEs meet Efficient Ensembles [49.313497379189315]
このようなモデルの2つの一般的なクラス、すなわちニューラルネットワークのアンサンブルと専門家のスパースミックス(スパースMoE)の相互作用について研究する。
Efficient Ensemble of Experts (E$3$)は、両モデルのクラスを最大限に活用するスケーラブルでシンプルなMoEのアンサンブルであり、深いアンサンブルよりも最大45%少ないFLOPを使用する。
論文 参考訳(メタデータ) (2021-10-07T11:58:35Z) - Vision Transformers are Robust Learners [65.91359312429147]
ビジョントランスフォーマー(ViT)の一般的な腐敗や摂動、分布シフト、自然逆転例に対する堅牢性について検討します。
ViTsが実際により堅牢な学習者である理由を説明するために、定量的および定性的な指標を提供する分析を提示します。
論文 参考訳(メタデータ) (2021-05-17T02:39:22Z) - Exploring Complementary Strengths of Invariant and Equivariant
Representations for Few-Shot Learning [96.75889543560497]
多くの現実世界では、多数のラベル付きサンプルの収集は不可能です。
少ないショット学習はこの問題に対処するための主要なアプローチであり、目的は限られた数のサンプルの存在下で新しいカテゴリに迅速に適応することです。
幾何学的変換の一般集合に対する等分散と不変性を同時に強制する新しい訓練機構を提案する。
論文 参考訳(メタデータ) (2021-03-01T21:14:33Z) - From Sound Representation to Model Robustness [82.21746840893658]
本研究では, 環境音の標準的な表現(スペクトログラム)が, 被害者の残差畳み込みニューラルネットワークの認識性能と対角攻撃性に与える影響について検討する。
3つの環境音響データセットの様々な実験から、ResNet-18モデルは、他のディープラーニングアーキテクチャよりも優れていることがわかった。
論文 参考訳(メタデータ) (2020-07-27T17:30:49Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。