論文の概要: A Novel Disaster Image Dataset and Characteristics Analysis using
Attention Model
- arxiv url: http://arxiv.org/abs/2107.01284v1
- Date: Fri, 2 Jul 2021 21:18:20 GMT
- ステータス: 処理完了
- システム内更新日: 2021-07-07 12:58:27.298948
- Title: A Novel Disaster Image Dataset and Characteristics Analysis using
Attention Model
- Title(参考訳): 注意モデルを用いた新しい災害画像データセットと特徴解析
- Authors: Fahim Faisal Niloy, Arif, Abu Bakar Siddik Nayem, Anis Sarker, Ovi
Paul, M. Ashraful Amin, Amin Ahsan Ali, Moinul Islam Zaber, AKM Mahbubur
Rahman
- Abstract要約: このデータセットには、火災、水、陸の3つの異なる災害のために様々なソースから収集された画像が含まれている。
このデータセットには13,720の注釈付き画像があり、各画像は3人の個人によって注釈付けされている。
3層アテンションモデル(TLAM)をトレーニングし、平均5倍の検証精度95.88%を達成する。
- 参考スコア(独自算出の注目度): 2.1473182295633224
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The advancement of deep learning technology has enabled us to develop systems
that outperform any other classification technique. However, success of any
empirical system depends on the quality and diversity of the data available to
train the proposed system. In this research, we have carefully accumulated a
relatively challenging dataset that contains images collected from various
sources for three different disasters: fire, water and land. Besides this, we
have also collected images for various damaged infrastructure due to natural or
man made calamities and damaged human due to war or accidents. We have also
accumulated image data for a class named non-damage that contains images with
no such disaster or sign of damage in them. There are 13,720 manually annotated
images in this dataset, each image is annotated by three individuals. We are
also providing discriminating image class information annotated manually with
bounding box for a set of 200 test images. Images are collected from different
news portals, social media, and standard datasets made available by other
researchers. A three layer attention model (TLAM) is trained and average five
fold validation accuracy of 95.88% is achieved. Moreover, on the 200 unseen
test images this accuracy is 96.48%. We also generate and compare attention
maps for these test images to determine the characteristics of the trained
attention model. Our dataset is available at
https://niloy193.github.io/Disaster-Dataset
- Abstract(参考訳): ディープラーニング技術の進歩により、他の分類技術よりも優れたシステムを開発することができた。
しかし,実験システムの成功は,提案システムの学習に利用可能なデータの品質と多様性に依存している。
本研究では, 火災, 水, 陸の3つの災害現場から収集した画像を含む比較的困難なデータセットを慎重に収集した。
また,自然や人による災害や,戦争や事故による人的被害など,さまざまな被害インフラの画像も収集した。
また,このような災害や被害の徴候のない画像を含む非損傷クラスに対する画像データも蓄積した。
このデータセットには13,720の注釈付き画像があり、各画像は3人で注釈付けされている。
また,200種類のテスト画像に対して,バウンディングボックスを手作業で付与した画像クラス情報を識別する。
画像は、他の研究者が利用可能なさまざまなニュースポータル、ソーシャルメディア、標準データセットから収集される。
3層注意モデル(tlam)を訓練し、平均5つの折りたたみ検証精度95.88%を達成する。
さらに、200個の未検出画像では、この精度は96.48%である。
また,これらの実験画像に対して注意マップを作成し,比較し,注意モデルの特性について検討した。
私たちのデータセットはhttps://niloy193.github.io/Disaster-Datasetで利用可能です。
関連論文リスト
- Community Forensics: Using Thousands of Generators to Train Fake Image Detectors [15.166026536032142]
AI生成画像を検出する上で重要な課題の1つは、これまで目に見えない生成モデルによって作成された画像を見つけることである。
従来よりも大きく,多様である新しいデータセットを提案する。
得られたデータセットには、4803の異なるモデルからサンプリングされた2.7Mイメージが含まれている。
論文 参考訳(メタデータ) (2024-11-06T18:59:41Z) - Deep Image Composition Meets Image Forgery [0.0]
画像偽造は長年研究されてきた。
ディープラーニングモデルは、トレーニングのために大量のラベル付きデータを必要とする。
本研究では,画像合成深層学習モデルを用いて,実生活における操作の質に近いスプライシング画像を生成する。
論文 参考訳(メタデータ) (2024-04-03T17:54:37Z) - Invariant Learning via Diffusion Dreamed Distribution Shifts [121.71383835729848]
拡散ドリーム分布シフト(D3S)と呼ばれるデータセットを提案する。
D3Sは、テキストプロンプトを用いてStableDiffusionを通じて生成された合成画像と、サンプルフォアグラウンドイメージを背景テンプレートイメージにペーストした画像ガイドから構成される。
拡散モデルの驚くべきフォトリアリズムのため、我々の画像は以前の合成データセットよりも自然な画像に近い。
論文 参考訳(メタデータ) (2022-11-18T17:07:43Z) - From Synthetic to Real: Image Dehazing Collaborating with Unlabeled Real
Data [58.50411487497146]
ラベルのない実データと協調する新しい画像デハージングフレームワークを提案する。
まず,特徴表現を3つの成分マップに切り離す不整合画像デハージングネットワーク(DID-Net)を開発する。
そして、無ラベルの実データと協調して単一画像のデハージングを促進するために、不整合平均教師ネットワーク(DMT-Net)を用いる。
論文 参考訳(メタデータ) (2021-08-06T04:00:28Z) - Learning to See by Looking at Noise [87.12788334473295]
簡単なランダムなプロセスから画像を生成する一連の画像生成モデルについて検討する。
これらは、対照的な損失を伴う視覚表現学習者のトレーニングデータとして使用される。
以上の結果から,実データの構造的特性を捉えることはノイズにとって重要であるが,現実的ではないプロセスでも良好な性能が達成できることが示唆された。
論文 参考訳(メタデータ) (2021-06-10T17:56:46Z) - Generating Physically-Consistent Satellite Imagery for Climate Visualizations [53.61991820941501]
我々は,将来的な洪水や森林再生イベントの合成衛星画像を作成するために,生成的敵ネットワークを訓練する。
純粋なディープラーニングベースのモデルでは、洪水の可視化を生成することができるが、洪水の影響を受けない場所では幻覚的な洪水が発生する。
我々は,地球観測におけるセグメンテーションガイドによる画像と画像の変換のためのコードとデータセットを公開している。
論文 参考訳(メタデータ) (2021-04-10T15:00:15Z) - Unifying Remote Sensing Image Retrieval and Classification with Robust
Fine-tuning [3.6526118822907594]
新しい大規模トレーニングおよびテストデータセットであるSF300で、リモートセンシングイメージの検索と分類を統一することを目指しています。
本研究では,ImageNetの事前学習ベースラインと比較して,9つのデータセットの検索性能と分類性能を体系的に向上させることを示す。
論文 参考訳(メタデータ) (2021-02-26T11:01:30Z) - An Empirical Study of the Collapsing Problem in Semi-Supervised 2D Human
Pose Estimation [80.02124918255059]
半教師付き学習は、ラベルなし画像の探索によってモデルの精度を高めることを目的としている。
私たちは相互に教え合うために2つのネットワークを学びます。
各ネットワーク内の容易なイメージに関するより信頼性の高い予測は、他のネットワークに対応するハードイメージについて学ぶように教えるために使用される。
論文 参考訳(メタデータ) (2020-11-25T03:29:52Z) - Deep Learning Benchmarks and Datasets for Social Media Image
Classification for Disaster Response [5.610924570214424]
本研究では,災害タイプ検出,情報度分類,被害重大度評価のための新しいデータセットを提案する。
我々は、最先端のディープラーニングモデルをいくつかベンチマークし、有望な結果を得る。
我々は、適切なベースラインを提供するとともに、危機情報化コミュニティにおけるさらなる研究を促進するために、データセットとモデルを公開しています。
論文 参考訳(メタデータ) (2020-11-17T20:15:49Z) - Background Splitting: Finding Rare Classes in a Sea of Background [55.03789745276442]
我々は,少数の稀なカテゴリの画像分類のための,高精度な深層モデルの訓練という現実的な問題に焦点をあてる。
これらのシナリオでは、ほとんどの画像はデータセットの背景カテゴリに属します(データセットの95%は背景です)。
非バランスなデータセットをトレーニングするための標準的な微調整アプローチと最先端アプローチの両方が、この極端な不均衡の存在下で正確な深層モデルを生成していないことを実証する。
論文 参考訳(メタデータ) (2020-08-28T23:05:15Z) - Detecting natural disasters, damage, and incidents in the wild [26.73896031797989]
様々な場面で43件のインシデントをカバーしている人間によって注釈付けされた446,684枚の画像を含むインシデントデータセットを提示する。
我々は,偽陽性誤りを緩和するベースライン分類モデルを採用し,FlickrとTwitterの何百万ものソーシャルメディア画像に対して画像フィルタリング実験を行った。
論文 参考訳(メタデータ) (2020-08-20T20:09:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。