論文の概要: An AutoML-based Approach to Multimodal Image Sentiment Analysis
- arxiv url: http://arxiv.org/abs/2102.08092v1
- Date: Tue, 16 Feb 2021 11:28:50 GMT
- ステータス: 処理完了
- システム内更新日: 2021-02-18 05:49:18.464416
- Title: An AutoML-based Approach to Multimodal Image Sentiment Analysis
- Title(参考訳): マルチモーダルイメージセンテンメント解析のためのAutoMLベースのアプローチ
- Authors: Vasco Lopes, Ant\'onio Gaspar, Lu\'is A. Alexandre, Jo\~ao Cordeiro
- Abstract要約: 本稿では,テキストと画像の感情分析を,automlに基づく最終的な融合分類に組み合わせる手法を提案する。
提案手法は95.19%の精度でB-T4SAデータセットの最先端性能を達成した。
- 参考スコア(独自算出の注目度): 1.0499611180329804
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Sentiment analysis is a research topic focused on analysing data to extract
information related to the sentiment that it causes. Applications of sentiment
analysis are wide, ranging from recommendation systems, and marketing to
customer satisfaction. Recent approaches evaluate textual content using Machine
Learning techniques that are trained over large corpora. However, as social
media grown, other data types emerged in large quantities, such as images.
Sentiment analysis in images has shown to be a valuable complement to textual
data since it enables the inference of the underlying message polarity by
creating context and connections. Multimodal sentiment analysis approaches
intend to leverage information of both textual and image content to perform an
evaluation. Despite recent advances, current solutions still flounder in
combining both image and textual information to classify social media data,
mainly due to subjectivity, inter-class homogeneity and fusion data
differences. In this paper, we propose a method that combines both textual and
image individual sentiment analysis into a final fused classification based on
AutoML, that performs a random search to find the best model. Our method
achieved state-of-the-art performance in the B-T4SA dataset, with 95.19%
accuracy.
- Abstract(参考訳): 感性分析は、データを分析し、それが引き起こす感情に関する情報を抽出することに焦点を当てた研究トピックである。
感情分析の応用は、レコメンデーションシステムやマーケティングから顧客満足度まで幅広い。
最近のアプローチでは、大規模コーパス上でトレーニングされる機械学習技術を用いてテキストコンテンツを評価する。
しかし、ソーシャルメディアが成長するにつれて、画像など他のデータ型も大量に出現した。
画像中の感性分析は、コンテキストと接続を作成することによって、基礎となるメッセージ極性の推定を可能にするため、テキストデータの貴重な補完となることが示されている。
マルチモーダル感情分析アプローチは、テキストコンテンツと画像コンテンツの両方の情報を利用して評価を行うことを目的としています。
近年の進歩にもかかわらず、現在のソリューションは、主に主観性、クラス間の均一性、融合データの違いによって、画像情報とテキスト情報を組み合わせることで、ソーシャルメディアデータを分類している。
本稿では,テキストと画像の個々の感情分析を,AutoMLに基づく最終融合分類に組み合わせ,最適なモデルを探すためにランダム検索を行う手法を提案する。
提案手法は95.19%の精度でB-T4SAデータセットの最先端性能を達成した。
関連論文リスト
- WisdoM: Improving Multimodal Sentiment Analysis by Fusing Contextual
World Knowledge [73.76722241704488]
大規模視覚言語モデル(LVLM)から引き起こされる文脈的世界知識を利用してマルチモーダル感情分析を行うプラグインフレームワークWisdoMを提案する。
我々の手法は、いくつかの最先端手法よりも大幅に改善されていることを示す。
論文 参考訳(メタデータ) (2024-01-12T16:08:07Z) - From Text to Pixels: A Context-Aware Semantic Synergy Solution for
Infrared and Visible Image Fusion [66.33467192279514]
我々は、テキスト記述から高レベルなセマンティクスを活用し、赤外線と可視画像のセマンティクスを統合するテキスト誘導多モード画像融合法を提案する。
本手法は,視覚的に優れた融合結果を生成するだけでなく,既存の手法よりも高い検出mAPを達成し,最先端の結果を得る。
論文 参考訳(メタデータ) (2023-12-31T08:13:47Z) - Harnessing the Power of Text-image Contrastive Models for Automatic
Detection of Online Misinformation [50.46219766161111]
誤情報識別の領域における構成的学習を探求する自己学習モデルを構築した。
本モデルでは、トレーニングデータが不十分な場合、非マッチング画像-テキストペア検出の優れた性能を示す。
論文 参考訳(メタデータ) (2023-04-19T02:53:59Z) - Holistic Visual-Textual Sentiment Analysis with Prior Models [64.48229009396186]
本稿では,頑健な視覚・テキスト感情分析を実現するための総合的手法を提案する。
提案手法は,(1)感情分析のためのデータから特徴を直接学習する視覚テキストブランチ,(2)選択された意味的特徴を抽出する事前学習された「専門家」エンコーダを備えた視覚専門家ブランチ,(3)暗黙的に視覚テキスト対応をモデル化するCLIPブランチ,(4)多モード特徴を融合して感情予測を行うBERTに基づくマルチモーダル特徴融合ネットワークの4つの部分から構成される。
論文 参考訳(メタデータ) (2022-11-23T14:40:51Z) - Transfer Learning with Joint Fine-Tuning for Multimodal Sentiment
Analysis [0.6091702876917281]
感情分析にジョイントファインチューニングを用いたトランスファーラーニング手法を提案する。
本提案では,テキストと画像の事前学習モデルを共同調整段階に組み込む際の柔軟性について述べる。
論文 参考訳(メタデータ) (2022-10-11T21:16:14Z) - A Comprehensive Review of Visual-Textual Sentiment Analysis from Social
Media Networks [2.048226951354646]
ソーシャルメディアネットワークは人々の生活の重要な側面となり、彼らの考え、意見、感情のプラットフォームとして機能している。
これらの感情を分析することで、ブランド評価、YouTubeの映画レビュー、ヘルスケアアプリケーションなど、さまざまな応用が明らかになった。
本研究では、ソーシャルメディア上に投稿された視覚的・テキスト的データを調査するマルチモーダル感情分析の分野に焦点を当てた。
論文 参考訳(メタデータ) (2022-07-05T16:28:47Z) - Where Does the Performance Improvement Come From? - A Reproducibility
Concern about Image-Text Retrieval [85.03655458677295]
画像テキスト検索は、情報検索分野において、徐々に主要な研究方向になりつつある。
まず、画像テキスト検索タスクに焦点が当てられている理由と関連性について検討する。
本研究では,事前学習と非事前学習による検索モデルの再現の諸側面を解析する。
論文 参考訳(メタデータ) (2022-03-08T05:01:43Z) - A Novel Context-Aware Multimodal Framework for Persian Sentiment
Analysis [19.783517380422854]
まず,800以上の発話からなるペルシャのマルチモーダルデータセットについて述べる。
文脈対応型マルチモーダル感情分析フレームワークを提案する。
我々は,感情的クロスモーダル情報を統合するために,意思決定レベル(後期)と機能レベル(早期)の融合手法の両方を用いる。
論文 参考訳(メタデータ) (2021-03-03T19:09:01Z) - Weakly-Supervised Aspect-Based Sentiment Analysis via Joint
Aspect-Sentiment Topic Embedding [71.2260967797055]
アスペクトベース感情分析のための弱教師付きアプローチを提案する。
We learn sentiment, aspects> joint topic embeddeds in the word embedding space。
次に、ニューラルネットワークを用いて単語レベルの識別情報を一般化する。
論文 参考訳(メタデータ) (2020-10-13T21:33:24Z) - Visual Sentiment Analysis from Disaster Images in Social Media [11.075683976162766]
本稿では,社会的な重要な領域における視覚的感情分析,すなわちソーシャルメディアにおける災害分析に焦点を当てる。
本稿では,災害関連画像に対する深い視覚的感情分析手法を提案し,視覚的感情分析のさまざまな側面について述べる。
提案システムは,様々な利害関係者を支援することで,より生き生きとしたコミュニティに貢献できると考えている。
論文 参考訳(メタデータ) (2020-09-04T11:29:52Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。