論文の概要: A Comprehensive Review of Visual-Textual Sentiment Analysis from Social
Media Networks
- arxiv url: http://arxiv.org/abs/2207.02160v1
- Date: Tue, 5 Jul 2022 16:28:47 GMT
- ステータス: 処理完了
- システム内更新日: 2022-07-06 13:59:46.058901
- Title: A Comprehensive Review of Visual-Textual Sentiment Analysis from Social
Media Networks
- Title(参考訳): ソーシャル・メディア・ネットワークによる視覚・テキスト知覚分析の概観
- Authors: Israa Khalaf Salman Al-Tameemi, Mohammad-Reza Feizi-Derakhshi, Saeed
Pashazadeh, Mohammad Asadpour
- Abstract要約: ソーシャルメディアネットワークは人々の生活の重要な側面となり、彼らの考え、意見、感情のプラットフォームとして機能している。
これらの感情を分析することで、ブランド評価、YouTubeの映画レビュー、ヘルスケアアプリケーションなど、さまざまな応用が明らかになった。
本研究では、ソーシャルメディア上に投稿された視覚的・テキスト的データを調査するマルチモーダル感情分析の分野に焦点を当てた。
- 参考スコア(独自算出の注目度): 3.8137985834223507
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Social media networks have become a significant aspect of people's lives,
serving as a platform for their ideas, opinions and emotions. Consequently,
automated sentiment analysis (SA) is critical for recognising people's feelings
in ways that other information sources cannot. The analysis of these feelings
revealed various applications, including brand evaluations, YouTube film
reviews and healthcare applications. As social media continues to develop,
people post a massive amount of information in different forms, including text,
photos, audio and video. Thus, traditional SA algorithms have become limited,
as they do not consider the expressiveness of other modalities. By including
such characteristics from various material sources, these multimodal data
streams provide new opportunities for optimising the expected results beyond
text-based SA. Our study focuses on the forefront field of multimodal SA, which
examines visual and textual data posted on social media networks. Many people
are more likely to utilise this information to express themselves on these
platforms. To serve as a resource for academics in this rapidly growing field,
we introduce a comprehensive overview of textual and visual SA, including data
pre-processing, feature extraction techniques, sentiment benchmark datasets,
and the efficacy of multiple classification methodologies suited to each field.
We also provide a brief introduction of the most frequently utilised data
fusion strategies and a summary of existing research on visual-textual SA.
Finally, we highlight the most significant challenges and investigate several
important sentiment applications.
- Abstract(参考訳): ソーシャルメディアネットワークは人々の生活の重要な側面となり、彼らの考え、意見、感情のプラットフォームとなっている。
その結果、自動感情分析(SA)は、他の情報ソースができない方法で人々の感情を認識するために重要である。
これらの感情の分析により、ブランド評価、youtubeの映画レビュー、ヘルスケアアプリケーションなど様々な応用が明らかになった。
ソーシャルメディアが発展していくにつれ、人々はテキスト、写真、オーディオ、ビデオなど、さまざまな形で大量の情報を投稿する。
したがって、従来のSAアルゴリズムは、他のモダリティの表現性を考慮しないため、制限されている。
様々な資料からこのような特徴を取り入れることで、これらのマルチモーダルデータストリームは、テキストベースSAを超える期待結果を最適化する新たな機会を提供する。
本研究は,ソーシャルメディア上に投稿された視覚およびテキストデータを調べるマルチモーダルsaの最前線に焦点をあてた。
多くの人は、これらのプラットフォーム上で自身を表現するために、この情報を利用する可能性が高い。
この急速に成長している分野における学者のリソースとして、データ前処理、特徴抽出技術、感情ベンチマークデータセット、各分野に適した複数の分類手法の有効性を含む、テキストとビジュアルsaの包括的な概要を紹介する。
また、最も頻繁に利用されるデータ融合戦略の概要と、既存のビジュアルテキストsaに関する研究の概要を提供する。
最後に、最も重要な課題を強調し、いくつかの重要な感情アプリケーションを調査します。
関連論文リスト
- Large Language Models Meet Text-Centric Multimodal Sentiment Analysis: A Survey [66.166184609616]
ChatGPTは、テキスト中心のマルチモーダルタスクに大規模言語モデル(LLM)を適用する大きな可能性を開く。
既存のLLMがテキスト中心のマルチモーダル感情分析タスクにどのように適応できるかは、まだ不明である。
論文 参考訳(メタデータ) (2024-06-12T10:36:27Z) - A Comprehensive Review on Sentiment Analysis: Tasks, Approaches and
Applications [0.2717221198324361]
感性分析(SA)はテキストマイニングにおける新たな分野である。
これは、異なるソーシャルメディアプラットフォーム上でテキストで表現された意見を計算的に識別し、分類するプロセスである。
論文 参考訳(メタデータ) (2023-11-19T06:29:41Z) - GPT-4V(ision) as A Social Media Analysis Engine [77.23394183063238]
本稿では,GPT-4Vのソーシャルマルチメディア分析能力について考察する。
我々は、感情分析、ヘイトスピーチ検出、フェイクニュース識別、人口推定、政治的イデオロギー検出を含む5つの代表的なタスクを選択する。
GPT-4Vはこれらのタスクにおいて顕著な効果を示し、画像とテキストのペアの理解、文脈と文化の認識、広義のコモンセンス知識などの強みを示している。
論文 参考訳(メタデータ) (2023-11-13T18:36:50Z) - Exploring Sentiment Analysis Techniques in Natural Language Processing:
A Comprehensive Review [0.15229257192293202]
感性分析(英: Sentiment Analysis、SA)は、テキストによる感情の検出と理解を自動化するプロセスである。
SAは自然言語処理(NLP)の分野で大きな人気を集めている。
本研究の目的は,SAプロセスの効率性と精度の向上であり,よりスムーズでエラーのない結果をもたらすことである。
論文 参考訳(メタデータ) (2023-05-24T07:48:41Z) - Vision+X: A Survey on Multimodal Learning in the Light of Data [64.03266872103835]
様々なソースからのデータを組み込んだマルチモーダル機械学習が,ますます普及している研究分野となっている。
我々は、視覚、音声、テキスト、動きなど、各データフォーマットの共通点と特異点を分析する。
本稿では,表現学習と下流アプリケーションレベルの両方から,マルチモーダル学習に関する既存の文献を考察する。
論文 参考訳(メタデータ) (2022-10-05T13:14:57Z) - Dataset and Case Studies for Visual Near-Duplicates Detection in the
Context of Social Media [11.569861200214294]
視覚的に類似したコンテンツの追跡は、そのようなコンテンツの拡散に関連する社会現象を研究・分析する上で重要な課題である。
ソーシャルメディア画像のデータセットを構築し、画像検索といくつかの高度な視覚特徴抽出手法に基づいて視覚近距離検索手法を評価する。
論文 参考訳(メタデータ) (2022-03-14T15:10:30Z) - Affective Image Content Analysis: Two Decades Review and New
Perspectives [132.889649256384]
我々は,過去20年間の情緒的イメージコンテンツ分析(AICA)の発展を包括的にレビューする。
我々は、感情的ギャップ、知覚主観性、ラベルノイズと欠如という3つの主要な課題に関して、最先端の手法に焦点を当てる。
画像の内容やコンテキスト理解,グループ感情クラスタリング,ビューアーとイメージのインタラクションなど,今後の課題や研究の方向性について論じる。
論文 参考訳(メタデータ) (2021-06-30T15:20:56Z) - Two-Faced Humans on Twitter and Facebook: Harvesting Social Multimedia
for Human Personality Profiling [74.83957286553924]
我々は、"PERS"と呼ばれる新しい多視点融合フレームワークを適用して、マイアーズ・ブリッグス・パーソナリティ・タイプインジケータを推定する。
実験の結果,多視点データからパーソナリティ・プロファイリングを学習する能力は,多様なソーシャル・マルチメディア・ソースからやってくるデータを効率的に活用できることが示唆された。
論文 参考訳(メタデータ) (2021-06-20T10:48:49Z) - An AutoML-based Approach to Multimodal Image Sentiment Analysis [1.0499611180329804]
本稿では,テキストと画像の感情分析を,automlに基づく最終的な融合分類に組み合わせる手法を提案する。
提案手法は95.19%の精度でB-T4SAデータセットの最先端性能を達成した。
論文 参考訳(メタデータ) (2021-02-16T11:28:50Z) - Visual Sentiment Analysis from Disaster Images in Social Media [11.075683976162766]
本稿では,社会的な重要な領域における視覚的感情分析,すなわちソーシャルメディアにおける災害分析に焦点を当てる。
本稿では,災害関連画像に対する深い視覚的感情分析手法を提案し,視覚的感情分析のさまざまな側面について述べる。
提案システムは,様々な利害関係者を支援することで,より生き生きとしたコミュニティに貢献できると考えている。
論文 参考訳(メタデータ) (2020-09-04T11:29:52Z) - Survey on Visual Sentiment Analysis [87.20223213370004]
本稿では、関連する出版物をレビューし、視覚知覚分析の分野の概要を概観する。
また,3つの視点から一般的な視覚知覚分析システムの設計原理について述べる。
様々なレベルの粒度と、異なる方法でイメージに対する感情に影響を与えるコンポーネントを考慮し、問題の定式化について論じる。
論文 参考訳(メタデータ) (2020-04-24T10:15:22Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。