論文の概要: Uint: Building Uint Detection Dataset
- arxiv url: http://arxiv.org/abs/2508.03139v1
- Date: Tue, 05 Aug 2025 06:36:41 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-06 18:18:55.817296
- Title: Uint: Building Uint Detection Dataset
- Title(参考訳): Uint: Uint 検出データセットの構築
- Authors: Haozhou Zhai, Yanzhe Gao, Tianjiang Hu,
- Abstract要約: ファイアシーンデータセットは、堅牢なコンピュータビジョンモデルのトレーニングに不可欠である。
ビルディングユニットを対象とする注釈付きデータはかなり不足している。
ドローンによって捕獲された建築ユニットの注釈付きデータセットを導入し、複数の拡張手法を取り入れた。
- 参考スコア(独自算出の注目度): 1.2166468091046596
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Fire scene datasets are crucial for training robust computer vision models, particularly in tasks such as fire early warning and emergency rescue operations. However, among the currently available fire-related data, there is a significant shortage of annotated data specifically targeting building units.To tackle this issue, we introduce an annotated dataset of building units captured by drones, which incorporates multiple enhancement techniques. We construct backgrounds using real multi-story scenes, combine motion blur and brightness adjustment to enhance the authenticity of the captured images, simulate drone shooting conditions under various circumstances, and employ large models to generate fire effects at different locations.The synthetic dataset generated by this method encompasses a wide range of building scenarios, with a total of 1,978 images. This dataset can effectively improve the generalization ability of fire unit detection, providing multi-scenario and scalable data while reducing the risks and costs associated with collecting real fire data. The dataset is available at https://github.com/boilermakerr/FireUnitData.
- Abstract(参考訳): 消防現場のデータセットは、特に火災早期警報や緊急救助活動のようなタスクにおいて、堅牢なコンピュータビジョンモデルの訓練に不可欠である。
しかし、現在利用可能な火災関連データの中には、建築ユニットを対象とする注釈付きデータが著しく不足しており、この問題に対処するため、複数の拡張技術が組み込まれているドローンによって捕獲された建築ユニットの注釈付きデータセットを導入している。
実際の多面的シーンを用いて背景を構築し, 動きのぼやけと明るさの調整を組み合わせ, 捕獲した画像の信頼性を高め, 様々な状況下でのドローン射撃条件をシミュレートし, 異なる場所での火災効果を生成するために大規模なモデルを用いて, 合計1,978枚の画像を含む, 広範囲な建築シナリオを含む合成データセットを構築した。
このデータセットは、ファイアユニット検出の一般化能力を効果的に向上し、実際のファイアデータ収集に伴うリスクとコストを低減しつつ、マルチシナリオでスケーラブルなデータを提供する。
データセットはhttps://github.com/boilermakerr/FireUnitDataで公開されている。
関連論文リスト
- AerialMegaDepth: Learning Aerial-Ground Reconstruction and View Synthesis [57.249817395828174]
本研究では,3次元都市規模のメッシュからの擬似合成レンダリングと,実地レベルでのクラウドソース画像を組み合わせたスケーラブルなフレームワークを提案する。
擬似合成データは、幅広い空中視点をシミュレートする一方、実際のクラウドソース画像は、地上レベルの画像の視覚的忠実度を改善するのに役立つ。
このハイブリッドデータセットを使用して、いくつかの最先端のアルゴリズムを微調整し、実世界のゼロショット地上作業において大幅な改善を実現する。
論文 参考訳(メタデータ) (2025-04-17T17:57:05Z) - Combined Physics and Event Camera Simulator for Slip Detection [11.309936820480111]
本稿では,ロボットアームのカメラグリッパー構成を用いてスリップデータを生成するシミュレーションパイプラインを提案する。
セットアップをいつでも変更でき、繰り返しのプロセスを単純化し、任意に大きなデータセットを生成することができる。
論文 参考訳(メタデータ) (2025-03-05T14:50:21Z) - FLAME Diffuser: Wildfire Image Synthesis using Mask Guided Diffusion [4.038140001938416]
本研究では,現実的な山火事画像を生成するためのトレーニングフリーで拡散型フレームワークを提案する。
われわれのフレームワークは、本物の山火事データからサンプル化した拡張マスクを用いており、現実的な炎の発生を誘導するためにパーリンノイズを適用している。
正規化Frechet Inception Distance, CLIP Score, カスタムCLIP Confidence測定値を用いて生成画像を評価する。
論文 参考訳(メタデータ) (2024-03-06T04:59:38Z) - WIT-UAS: A Wildland-fire Infrared Thermal Dataset to Detect Crew Assets
From Aerial Views [0.8741284539870512]
我々は、所定の森林火災環境下での乗組員および車両資産の長距離赤外検知のためのWildland-fire Infrared Thermal (WIT-UAS)データセットを提示する。
WIT-UAS-ROSは、火災上におけるUAS飛行のセンサーとロボットデータを含む全ROSバッグファイルと、WIT-UAS-ROSから抽出されたハンドラベル長波長赤外線(LWIR)画像を含むWIT-UAS-ROSである。
私たちのデータセットは、野生の火災環境において、初めてアセット検出に焦点を合わせたものです。
論文 参考訳(メタデータ) (2023-12-14T17:29:26Z) - DatasetDM: Synthesizing Data with Perception Annotations Using Diffusion
Models [61.906934570771256]
多様な合成画像や知覚アノテーションを生成できる汎用データセット生成モデルを提案する。
本手法は,事前学習した拡散モデルに基づいて,テキスト誘導画像合成を知覚データ生成に拡張する。
拡散モデルのリッチ潜時コードはデコーダモジュールを用いて正確な認識アノテーションとして効果的に復号できることを示す。
論文 参考訳(メタデータ) (2023-08-11T14:38:11Z) - TRoVE: Transforming Road Scene Datasets into Photorealistic Virtual
Environments [84.6017003787244]
本研究では、シミュレーションデータセットに存在する困難とドメインギャップに対処する合成データ生成パイプラインを提案する。
既存のデータセットからアノテーションや視覚的手がかりを利用すれば、自動マルチモーダルデータ生成が容易になることを示す。
論文 参考訳(メタデータ) (2022-08-16T20:46:08Z) - Next Day Wildfire Spread: A Machine Learning Data Set to Predict
Wildfire Spreading from Remote-Sensing Data [5.814925201882753]
Next Day Wildfire Spread」は、アメリカ全土で10年近くにわたってリモートセンシングされたデータを収集した、歴史的な山火事の収集データである。
我々は、このデータの空間情報を利用して、山火事の拡散を予測する畳み込みオートエンコーダを実装した。
このデータセットは、リモートセンシングデータに基づく1日のリードタイムに基づく山火事伝播モデル開発のためのベンチマークとして使用することができる。
論文 参考訳(メタデータ) (2021-12-04T23:28:44Z) - Data Augmentation for Object Detection via Differentiable Neural
Rendering [71.00447761415388]
注釈付きデータが乏しい場合、堅牢なオブジェクト検出器を訓練することは困難です。
この問題に対処する既存のアプローチには、ラベル付きデータからラベル付きデータを補間する半教師付き学習が含まれる。
オブジェクト検出のためのオフラインデータ拡張手法を導入し、新しいビューでトレーニングデータを意味的に補間する。
論文 参考訳(メタデータ) (2021-03-04T06:31:06Z) - Artificial Dummies for Urban Dataset Augmentation [0.0]
画像中の歩行者検知器を訓練するための既存のデータセットは、外観やポーズの変動が限られている。
本稿では,人を含む都市景観の合成制御のための拡張手法について述べる。
DummyNetが生成するデータは、さまざまなデータセットにわたる複数の既存の人検出器のパフォーマンスを向上させることを実証します。
論文 参考訳(メタデータ) (2020-12-15T13:17:25Z) - The Cube++ Illumination Estimation Dataset [50.58610459038332]
本稿では,新しい照明推定データセットを提案する。
照明色が既知の4890の画像と、追加のセマンティックデータで構成されている。
データセットは、単一または2つの照度推定を実行するメソッドのトレーニングとテストに使用することができる。
論文 参考訳(メタデータ) (2020-11-19T18:50:08Z) - Uncertainty Aware Wildfire Management [6.997483623023005]
アメリカ合衆国では近年の山火事で生命が失われ、数十億ドルが失われた。
大規模に展開するリソースは限られており、火災の広がりを予測することは困難である。
本稿では,山火事対策のための意思決定論的アプローチを提案する。
論文 参考訳(メタデータ) (2020-10-15T17:47:31Z) - Scene relighting with illumination estimation in the latent space on an
encoder-decoder scheme [68.8204255655161]
本報告では,その目的を達成するための手法について述べる。
我々のモデルは、シーン内容、光源位置、色温度の異なる、人工的な場所のレンダリングデータセットに基づいて訓練されている。
本データセットでは,被写体の潜在空間表現における光条件の推測と置き換えを目的とした照明推定成分を用いたネットワークを用いた。
論文 参考訳(メタデータ) (2020-06-03T15:25:11Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。