論文の概要: Deep Models for Visual Sentiment Analysis of Disaster-related Multimedia
Content
- arxiv url: http://arxiv.org/abs/2112.12060v1
- Date: Tue, 30 Nov 2021 10:22:41 GMT
- ステータス: 処理完了
- システム内更新日: 2021-12-26 15:25:11.525769
- Title: Deep Models for Visual Sentiment Analysis of Disaster-related Multimedia
Content
- Title(参考訳): 災害関連マルチメディアコンテンツの視覚知覚分析のための深層モデル
- Authors: Khubaib Ahmad, Muhammad Asif Ayub, Kashif Ahmad, Ala Al-Fuqaha, Nasir
Ahmad
- Abstract要約: 本稿では,メディアエバル2021の課題,すなわち「視覚知覚分析:自然災害利用事例」に対する解決策を提案する。
この課題は、視聴者が知覚する感情と、ソーシャルメディア上で共有される自然災害関連画像によって伝達される感情メッセージを抽出し、分類することを目的としている。
提案したソリューションでは、主にImageNetで事前トレーニングされたInception-v3とVggNet-19という、最先端の2つのモデルに依存しています。
- 参考スコア(独自算出の注目度): 4.284841324544116
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: This paper presents a solutions for the MediaEval 2021 task namely "Visual
Sentiment Analysis: A Natural Disaster Use-case". The task aims to extract and
classify sentiments perceived by viewers and the emotional message conveyed by
natural disaster-related images shared on social media. The task is composed of
three sub-tasks including, one single label multi-class image classification
task, and, two multi-label multi-class image classification tasks, with
different sets of labels. In our proposed solutions, we rely mainly on two
different state-of-the-art models namely, Inception-v3 and VggNet-19,
pre-trained on ImageNet, which are fine-tuned for each of the three task using
different strategies. Overall encouraging results are obtained on all the three
tasks. On the single-label classification task (i.e. Task 1), we obtained the
weighted average F1-scores of 0.540 and 0.526 for the Inception-v3 and
VggNet-19 based solutions, respectively. On the multi-label classification
i.e., Task 2 and Task 3, the weighted F1-score of our Inception-v3 based
solutions was 0.572 and 0.516, respectively. Similarly, the weighted F1-score
of our VggNet-19 based solution on Task 2 and Task 3 was 0.584 and 0.495,
respectively.
- Abstract(参考訳): 本稿では,mediaeval 2021の課題である「視覚的感情分析:自然災害利用事例」の解決法を提案する。
この課題は、視聴者が知覚する感情と、ソーシャルメディアで共有される自然災害関連画像によって伝達される感情メッセージを抽出・分類することを目的としている。
このタスクは、1つのラベルのマルチクラス画像分類タスクと、ラベルの異なる2つのマルチラベルのマルチクラス画像分類タスクを含む3つのサブタスクから構成される。
提案するソリューションでは,imagenetで事前トレーニングされたinception-v3とvggnet-19という,3つのタスク毎に異なる戦略で微調整された2つの最先端モデルに主に依存する。
総合的な奨励的な結果が3つのタスクすべてで得られます。
単段分類タスク (タスク1) において, インセプションv3 と vggnet-19 を用いた解に対して, 重み付き平均 f1 スコア 0.540 と 0.526 をそれぞれ求めた。
タスク2とタスク3のマルチラベル分類では、インセプションv3ベースのソリューションの重み付きF1スコアはそれぞれ0.572と0.516であった。
同様に、タスク2とタスク3のVggNet-19ベースのソリューションの重み付きF1スコアはそれぞれ0.584と0.495であった。
関連論文リスト
- AIMS: All-Inclusive Multi-Level Segmentation [93.5041381700744]
視覚領域を3つのレベル(パート、エンティティ、リレーション)に分割するタスクであるAll-Inclusive Multi-Level(AIMS)を提案する。
また、アノテーションの不整合とタスク相関の2つの大きな課題に対処するために、マルチデータセットのマルチタスクトレーニングを通じて統合されたAIMSモデルを構築します。
論文 参考訳(メタデータ) (2023-05-28T16:28:49Z) - Matcher: Segment Anything with One Shot Using All-Purpose Feature
Matching [63.88319217738223]
市販の視覚基礎モデルを用いて様々な知覚課題に対処する新しい知覚パラダイムであるMatcherを提案する。
Matcherは、様々なセグメンテーションタスクにまたがる印象的な一般化パフォーマンスを、すべてトレーニングなしでデモする。
我々の結果は、野生の画像に適用されたMatcherのオープンワールドの一般性と柔軟性をさらに示すものである。
論文 参考訳(メタデータ) (2023-05-22T17:59:43Z) - Attention at SemEval-2023 Task 10: Explainable Detection of Online
Sexism (EDOS) [15.52876591707497]
我々は、分類タスクの形式でモデルによってなされた決定の解釈可能性、信頼、理解に取り組んできた。
最初のタスクは、バイナリ性検出を決定することで構成される。
第二の課題は性差別のカテゴリーを記述することである。
第3の課題は、よりきめ細かい性差別のカテゴリーを記述することである。
論文 参考訳(メタデータ) (2023-04-10T14:24:52Z) - TarViS: A Unified Approach for Target-based Video Segmentation [115.5770357189209]
TarViSは、ビデオで任意に定義された「ターゲット」の集合をセグメント化する必要があるあらゆるタスクに適用できる、新しく統合されたネットワークアーキテクチャである。
我々のアプローチは、タスクがこれらのターゲットをどのように定義するかに関して柔軟であり、後者を抽象的な「クエリ」としてモデル化し、ピクセル精度の高いターゲットマスクを予測するのに使用される。
その有効性を示すために、TarViSをビデオインスタンス(VIS)、ビデオパノプティクス(VPS)、ビデオオブジェクト(VOS)、ポイントインテンプラ誘導トラッキング(PET)の4つのタスクに適用する。
論文 参考訳(メタデータ) (2023-01-06T18:59:52Z) - Association Graph Learning for Multi-Task Classification with Category
Shifts [68.58829338426712]
関連する分類タスクが同じラベル空間を共有し、同時に学習されるマルチタスク分類に焦点を当てる。
我々は、不足クラスのためのタスク間で知識を伝達する関連グラフを学習する。
我々の手法は代表的基準よりも一貫して性能が良い。
論文 参考訳(メタデータ) (2022-10-10T12:37:41Z) - SS-MFAR : Semi-supervised Multi-task Facial Affect Recognition [3.823356975862006]
本稿では,第4回ABAWコンペティションにおけるマルチタスク学習課題について紹介する。
本手法では,bftextSS-MFARと題する半教師型マルチタスク顔影響認識において,タスク毎のタスク固有分類器を備えた残差ネットワークを用いる。
論文 参考訳(メタデータ) (2022-07-19T01:38:15Z) - Floods Detection in Twitter Text and Images [4.5848302154106815]
本稿では,実世界の洪水イベントを検出するためにソーシャルメディアからテキストコンテンツと視覚コンテンツを分析し,組み合わせることを目的とする。
テキストベースの洪水イベント検出には,BOW(Bog of Words)とBertのイタリア語版に依存する3つの方法を用いる。
ビジュアル分析では、ImageNetで事前トレーニングされた複数の最先端のディープモデルを介して抽出された機能に依存します。
論文 参考訳(メタデータ) (2020-11-30T16:08:19Z) - Tasks Integrated Networks: Joint Detection and Retrieval for Image
Search [99.49021025124405]
多くの現実世界の探索シナリオ(例えばビデオ監視)では、オブジェクトは正確に検出または注釈付けされることはめったにない。
まず、エンド・ツー・エンド統合ネット(I-Net)を紹介します。
さらに,2つの新しいコントリビューションを行うDC-I-Netという改良されたI-Netを提案する。
論文 参考訳(メタデータ) (2020-09-03T03:57:50Z) - Team Neuro at SemEval-2020 Task 8: Multi-Modal Fine Grain Emotion
Classification of Memes using Multitask Learning [7.145975932644256]
本稿では,SemEval-2020のタスク8である感情分析の課題に使用したシステムについて述べる。
この課題には3つのサブタスクがあった。
提案するシステムでは,3つのタスクを1つのタスクにまとめ,複数のラベルの階層的な分類問題として表現する。
論文 参考訳(メタデータ) (2020-05-21T21:29:44Z) - Dynamic Feature Integration for Simultaneous Detection of Salient
Object, Edge and Skeleton [108.01007935498104]
本稿では,高次物体分割,エッジ検出,スケルトン抽出など,低レベルの3つの視覚問題を解く。
まず、これらのタスクで共有される類似点を示し、統一されたフレームワークの開発にどのように活用できるかを示す。
論文 参考訳(メタデータ) (2020-04-18T11:10:11Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。