論文の概要: MultiFloodSynth: Multi-Annotated Flood Synthetic Dataset Generation
- arxiv url: http://arxiv.org/abs/2502.03966v1
- Date: Thu, 06 Feb 2025 10:59:44 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-02-07 14:34:28.797436
- Title: MultiFloodSynth: Multi-Annotated Flood Synthetic Dataset Generation
- Title(参考訳): MultiFloodSynth: Multi- Annotated Flood Synthetic Dataset Generation
- Authors: YoonJe Kang, Yonghoon Jung, Wonseop Shin, Bumsoo Kim, Sanghyun Seo,
- Abstract要約: 実世界のいくつかの特性を仮想世界に特徴付け、それらを制御して洪水状況をシミュレートする。
私たちのフレームワークをベースとして,MultiFlood Synthと呼ばれる5レベルの洪水合成データセットを構築しました。
実験では,実際のデータセットと比較して,オンパーリアリズムによる洪水危険度検出の性能向上を実証した。
- 参考スコア(独自算出の注目度): 5.431779602239565
- License:
- Abstract: In this paper, we present synthetic data generation framework for flood hazard detection system. For high fidelity and quality, we characterize several real-world properties into virtual world and simulate the flood situation by controlling them. For the sake of efficiency, recent generative models in image-to-3D and urban city synthesis are leveraged to easily composite flood environments so that we avoid data bias due to the hand-crafted manner. Based on our framework, we build the flood synthetic dataset with 5 levels, dubbed MultiFloodSynth which contains rich annotation types like normal map, segmentation, 3D bounding box for a variety of downstream task. In experiments, our dataset demonstrate the enhanced performance of flood hazard detection with on-par realism compared with real dataset.
- Abstract(参考訳): 本稿では,洪水危険度検知システムのための合成データ生成フレームワークを提案する。
高忠実度と品質のために,実世界の諸特性を仮想世界に特徴付け,それらを制御して洪水状況をシミュレートする。
効率性のために,近年の3次元画像生成モデルと都市合成モデルを利用して,手作りによるデータの偏りを避けるために,簡易な複合洪水環境を構築した。
フレームワークに基づいて,MultiFloodSynthという5つのレベルからなる洪水合成データセットを構築した。
実験では,実際のデータセットと比較して,オンパーリアリズムによる洪水危険度検出の性能向上を実証した。
関連論文リスト
- SimVS: Simulating World Inconsistencies for Robust View Synthesis [102.83898965828621]
本稿では、生成ビデオモデルを利用して、キャプチャ中に起こりうる世界の不整合をシミュレートする手法を提案する。
我々の世界シミュレーション戦略は、現実のシーンのバリエーションを扱う上で、従来の拡張手法よりも大幅に優れていることを実証する。
論文 参考訳(メタデータ) (2024-12-10T17:35:12Z) - Enhancing Generalizability of Representation Learning for Data-Efficient 3D Scene Understanding [50.448520056844885]
本研究では,実世界のパターンを持つ多様な合成シーンを生成可能なベイズネットワークを提案する。
一連の実験は、既存の最先端の事前学習手法に比べて、我々の手法が一貫した優位性を示す。
論文 参考訳(メタデータ) (2024-06-17T07:43:53Z) - Domain-Transferred Synthetic Data Generation for Improving Monocular Depth Estimation [9.812476193015488]
本稿では,3次元合成環境とCycleGANドメイン転送を用いたシミュレーションデータ生成手法を提案する。
本研究では,DenseDepth構造に基づく深度推定モデルを実データと模擬データの異なるトレーニングセットを用いて学習することにより,このデータ生成手法を,人気のNYUDepth V2データセットと比較する。
本稿では,Huskyロボットによる新たに収集した画像とLiDAR深度データを用いたモデルの性能評価を行い,GAN変換データを実世界のデータ,特に深度推定の有効な代替手段として有効であることを示す。
論文 参考訳(メタデータ) (2024-05-02T09:21:10Z) - Learning from Synthetic Data for Visual Grounding [55.21937116752679]
そこで本研究では,SynGroundが市販のビジョン・アンド・ランゲージモデルのローカライズ能力を向上できることを示す。
SynGroundで生成されたデータは、事前訓練されたALBEFモデルとBLIPモデルのポインティングゲーム精度をそれぞれ4.81%、絶対パーセンテージポイント17.11%向上させる。
論文 参考訳(メタデータ) (2024-03-20T17:59:43Z) - A New Benchmark: On the Utility of Synthetic Data with Blender for Bare
Supervised Learning and Downstream Domain Adaptation [42.2398858786125]
コンピュータビジョンにおけるディープラーニングは、大規模ラベル付きトレーニングデータの価格で大きな成功を収めた。
制御不能なデータ収集プロセスは、望ましくない重複が存在する可能性のある非IIDトレーニングおよびテストデータを生成する。
これを回避するために、ドメインランダム化による3Dレンダリングによる合成データを生成する方法がある。
論文 参考訳(メタデータ) (2023-03-16T09:03:52Z) - Cross-Domain Synthetic-to-Real In-the-Wild Depth and Normal Estimation for 3D Scene Understanding [5.561698802097603]
クロスドメイン推論技術は合成データから学習し、地中一方向の3Dシーンの深さと正常度を推定する。
UBotNetは、UNetとBottleneck Transformer要素を組み合わせて、一貫したシーンの正規性と深さを予測するアーキテクチャである。
我々は,我々の合成OmniHorizonデータセットのみをトレーニングしたUBotNetを用いて,実際の屋外画像に対するドメイン間合成-実深度と正規推定の有効性を検証した。
論文 参考訳(メタデータ) (2022-12-09T18:40:12Z) - TRoVE: Transforming Road Scene Datasets into Photorealistic Virtual
Environments [84.6017003787244]
本研究では、シミュレーションデータセットに存在する困難とドメインギャップに対処する合成データ生成パイプラインを提案する。
既存のデータセットからアノテーションや視覚的手がかりを利用すれば、自動マルチモーダルデータ生成が容易になることを示す。
論文 参考訳(メタデータ) (2022-08-16T20:46:08Z) - MetaGraspNet: A Large-Scale Benchmark Dataset for Scene-Aware
Ambidextrous Bin Picking via Physics-based Metaverse Synthesis [72.85526892440251]
本稿では,物理に基づくメタバース合成により構築した大規模写真リアリスティックビンピックデータセットであるMetaGraspNetを紹介する。
提案データセットは,82種類の記事に対して217kのRGBD画像を含み,オブジェクト検出,アモーダル認識,キーポイント検出,操作順序,および並列ジャウと真空グリップパー用のアンビデクストグリップラベルの完全なアノテーションを備える。
また,2.3k以上の完全アノテートされた高品質なRGBD画像からなる実際のデータセットを5段階の難易度と,異なるオブジェクトおよびレイアウト特性を評価するための見えないオブジェクトセットに分割する。
論文 参考訳(メタデータ) (2022-08-08T08:15:34Z) - STPLS3D: A Large-Scale Synthetic and Real Aerial Photogrammetry 3D Point
Cloud Dataset [6.812704277866377]
本稿では,合成空中測光点雲生成パイプラインを提案する。
仮想ゲームで合成データを生成するのとは異なり、提案したパイプラインは実環境の再構築プロセスをシミュレートする。
我々は、リッチな注釈付き合成3D空中測光点クラウドデータセットを提案する。
論文 参考訳(メタデータ) (2022-03-17T03:50:40Z) - From Synthetic to Real: Image Dehazing Collaborating with Unlabeled Real
Data [58.50411487497146]
ラベルのない実データと協調する新しい画像デハージングフレームワークを提案する。
まず,特徴表現を3つの成分マップに切り離す不整合画像デハージングネットワーク(DID-Net)を開発する。
そして、無ラベルの実データと協調して単一画像のデハージングを促進するために、不整合平均教師ネットワーク(DMT-Net)を用いる。
論文 参考訳(メタデータ) (2021-08-06T04:00:28Z) - Learning from Multimodal and Multitemporal Earth Observation Data for
Building Damage Mapping [17.324397643429638]
我々は、損傷マッピングを構築するためのグローバルなマルチセンサとマルチテンポラルデータセットを開発した。
グローバルデータセットには、高解像度の光学画像と高解像度のマルチバンドSARデータが含まれている。
我々は、深層畳み込みニューラルネットワークアルゴリズムに基づいて、損傷建物の意味的セグメンテーションのための損傷マッピングフレームワークを定義した。
論文 参考訳(メタデータ) (2020-09-14T05:04:19Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。