論文の概要: MEDIC: A Multi-Task Learning Dataset for Disaster Image Classification
- arxiv url: http://arxiv.org/abs/2108.12828v1
- Date: Sun, 29 Aug 2021 11:55:50 GMT
- ステータス: 処理完了
- システム内更新日: 2021-08-31 14:51:45.487935
- Title: MEDIC: A Multi-Task Learning Dataset for Disaster Image Classification
- Title(参考訳): MEDIC:災害画像分類のためのマルチタスク学習データセット
- Authors: Firoj Alam, Tanvirul Alam, Md. Arid Hasan, Abul Hasnat, Muhammad
Imran, Ferda Ofli
- Abstract要約: 我々は,人道支援のためのソーシャルメディア画像分類データセットとして最大のMEDICを提案する。
MEDICは71,198の画像で構成され、マルチタスク学習のセットアップで4つのタスクに対処する。
ソーシャルメディアの画像、災害対応、マルチタスク学習研究などだ。
- 参考スコア(独自算出の注目度): 6.167082944123002
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Recent research in disaster informatics demonstrates a practical and
important use case of artificial intelligence to save human lives and
sufferings during post-natural disasters based on social media contents (text
and images). While notable progress has been made using texts, research on
exploiting the images remains relatively under-explored. To advance the
image-based approach, we propose MEDIC (available at:
https://crisisnlp.qcri.org/medic/index.html), which is the largest social media
image classification dataset for humanitarian response consisting of 71,198
images to address four different tasks in a multi-task learning setup. This is
the first dataset of its kind: social media image, disaster response, and
multi-task learning research. An important property of this dataset is its high
potential to contribute research on multi-task learning, which recently
receives much interest from the machine learning community and has shown
remarkable results in terms of memory, inference speed, performance, and
generalization capability. Therefore, the proposed dataset is an important
resource for advancing image-based disaster management and multi-task machine
learning research.
- Abstract(参考訳): 最近の災害情報学研究は、ソーシャルメディア(テキストと画像)に基づく自然災害時の人命と苦しみを救える人工知能の実用的かつ重要なユースケースを示している。
テキストによる顕著な進歩はあったが、画像の活用に関する研究はいまだに未発見のままである。
MEDIC(https://crisisnlp.qcri.org/medic/index.html)は、71,198個の画像からなる人道的応答のソーシャルメディア画像分類データセットであり、マルチタスク学習環境における4つのタスクに対処する。
この種のデータセットは、ソーシャルメディアイメージ、災害対応、マルチタスク学習研究などだ。
このデータセットの重要な特性は、最近機械学習コミュニティから多くの関心を集め、メモリ、推論速度、パフォーマンス、一般化能力の点で顕著な結果を示したマルチタスク学習の研究に貢献する可能性が高いことである。
そこで,提案するデータセットは,画像に基づく災害管理とマルチタスク機械学習研究を進める上で重要な資源である。
関連論文リスト
- Self-Supervised Learning for Medical Image Data with Anatomy-Oriented Imaging Planes [28.57933404578436]
医用画像データに対する2つの補完的前提課題を提案する。
1つ目は、画像平面間の相対的な向きを学習し、交差する線を後退させるように実装することである。
2つ目は、平行イメージングプレーンを利用して、スタック内の相対的なスライス位置を後退させる。
論文 参考訳(メタデータ) (2024-03-25T07:34:06Z) - Stellar: Systematic Evaluation of Human-Centric Personalized
Text-to-Image Methods [52.806258774051216]
我々は,個々のイメージを入力し,生成プロセスの基盤となるテキストと,所望の視覚的コンテキストを記述したテキストに焦点をあてる。
我々は,既存の関連するデータセットよりも桁違いの大きさの個人画像と,リッチなセマンティックな接地真実アノテーションが容易に利用できるパーソナライズされたプロンプトを含む標準化データセット(Stellar)を紹介した。
被験者ごとにテストタイムの微調整を必要とせず,新しいSoTAを定量的かつ人為的に設定した,シンプルで効率的でパーソナライズされたテキスト・ツー・イメージのベースラインを導出する。
論文 参考訳(メタデータ) (2023-12-11T04:47:39Z) - Learning Transferable Pedestrian Representation from Multimodal
Information Supervision [174.5150760804929]
VAL-PATは、移動可能な表現を学習し、様々な歩行者分析タスクをマルチモーダル情報で強化する新しいフレームワークである。
まず、LUPerson-TAデータセットで事前トレーニングを行い、各画像にはテキストと属性アノテーションが含まれている。
次に、学習した表現を、人物のreID、人物属性認識、テキストベースの人物検索など、さまざまな下流タスクに転送する。
論文 参考訳(メタデータ) (2023-04-12T01:20:58Z) - Learning to Exploit Temporal Structure for Biomedical Vision-Language
Processing [53.89917396428747]
視覚言語処理における自己教師あり学習は、画像とテキストのモダリティのセマンティックアライメントを利用する。
トレーニングと微調整の両方で利用できる場合、事前のイメージとレポートを明示的に説明します。
我々のアプローチはBioViL-Tと呼ばれ、テキストモデルと共同で訓練されたCNN-Transformerハイブリッドマルチイメージエンコーダを使用する。
論文 参考訳(メタデータ) (2023-01-11T16:35:33Z) - Where Does the Performance Improvement Come From? - A Reproducibility
Concern about Image-Text Retrieval [85.03655458677295]
画像テキスト検索は、情報検索分野において、徐々に主要な研究方向になりつつある。
まず、画像テキスト検索タスクに焦点が当てられている理由と関連性について検討する。
本研究では,事前学習と非事前学習による検索モデルの再現の諸側面を解析する。
論文 参考訳(メタデータ) (2022-03-08T05:01:43Z) - Incidents1M: a large-scale dataset of images with natural disasters,
damage, and incidents [28.16346818821349]
洪水、竜巻、山火事などの自然災害は、地球が温暖化するにつれてますます広まりつつある。
事故の発生時期や発生時期を予測することは困難であり、破壊的な出来事によって危険にさらされている人々の命を救うために、時折緊急対応が重要となる。
ソーシャルメディア投稿は、災害の進行と余波を理解するために低レイテンシデータソースとして使用できるが、このデータを解析するのは、自動化された方法なしでは面倒である。
本研究では,43のインシデントと49のカテゴリを含む977,088の画像を含む大規模マルチラベルデータセットであるインシデント1Mデータセットを提案する。
論文 参考訳(メタデータ) (2022-01-11T23:03:57Z) - Enhancing Social Relation Inference with Concise Interaction Graph and
Discriminative Scene Representation [56.25878966006678]
我々はtextbfSocial rtextbfElation (PRISE) における textbfPractical textbfInference のアプローチを提案する。
人の対話的特徴と全体主義的な場面の識別的特徴を簡潔に学習する。
PRISEはPIPAデータセットにおけるドメイン分類の改善を6.8$%で達成している。
論文 参考訳(メタデータ) (2021-07-30T04:20:13Z) - Social Media Images Classification Models for Real-time Disaster
Response [5.937482215664902]
ソーシャルメディアで共有された画像は、状況の認識と被った損害の評価の観点から危機管理者を助けます。
リアルタイム画像分類は、より高速な応答を取るために緊急の要求となった。
最近のコンピュータビジョンとディープニューラルネットワークの進歩により、リアルタイム画像分類モデルの開発が可能になった。
論文 参考訳(メタデータ) (2021-04-09T04:30:04Z) - Factors of Influence for Transfer Learning across Diverse Appearance
Domains and Task Types [50.1843146606122]
現在の最新のコンピュータビジョンモデルでは、簡単な転送学習が一般的です。
転校学習に関するこれまでの体系的な研究は限られており、作業が期待される状況は十分に理解されていない。
本論文では,非常に異なる画像領域にまたがる転送学習の広範な実験的研究を行う。
論文 参考訳(メタデータ) (2021-03-24T16:24:20Z) - Deep Learning Benchmarks and Datasets for Social Media Image
Classification for Disaster Response [5.610924570214424]
本研究では,災害タイプ検出,情報度分類,被害重大度評価のための新しいデータセットを提案する。
我々は、最先端のディープラーニングモデルをいくつかベンチマークし、有望な結果を得る。
我々は、適切なベースラインを提供するとともに、危機情報化コミュニティにおけるさらなる研究を促進するために、データセットとモデルを公開しています。
論文 参考訳(メタデータ) (2020-11-17T20:15:49Z) - Analysis of Social Media Data using Multimodal Deep Learning for
Disaster Response [6.8889797054846795]
本稿では,ソーシャルメディアデータのテキストと画像のモダリティを併用して,最先端のディープラーニング技術を用いて共同表現を学習することを提案する。
実世界の災害データセットの実験により、提案されたマルチモーダルアーキテクチャは、単一のモダリティを用いてトレーニングされたモデルよりも優れたパフォーマンスが得られることが示された。
論文 参考訳(メタデータ) (2020-04-14T19:36:11Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。