論文の概要: Synthetic imagery for fuzzy object detection: A comparative study
- arxiv url: http://arxiv.org/abs/2410.01124v1
- Date: Tue, 1 Oct 2024 23:22:54 GMT
- ステータス: 処理完了
- システム内更新日: 2024-11-04 23:10:15.032628
- Title: Synthetic imagery for fuzzy object detection: A comparative study
- Title(参考訳): ファジィ物体検出のための合成画像の比較研究
- Authors: Siavash H. Khajavi, Mehdi Moshtaghi, Dikai Yu, Zixuan Liu, Kary Främling, Jan Holmström,
- Abstract要約: ファジィ物体検出はコンピュータビジョン(CV)研究の難しい分野である
火、煙、霧、蒸気のようなファジィな物体は、視覚的特徴の点で非常に複雑である。
完全合成火災画像の生成と自動アノテートのための代替手法を提案し,活用する。
- 参考スコア(独自算出の注目度): 3.652647451754697
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: The fuzzy object detection is a challenging field of research in computer vision (CV). Distinguishing between fuzzy and non-fuzzy object detection in CV is important. Fuzzy objects such as fire, smoke, mist, and steam present significantly greater complexities in terms of visual features, blurred edges, varying shapes, opacity, and volume compared to non-fuzzy objects such as trees and cars. Collection of a balanced and diverse dataset and accurate annotation is crucial to achieve better ML models for fuzzy objects, however, the task of collection and annotation is still highly manual. In this research, we propose and leverage an alternative method of generating and automatically annotating fully synthetic fire images based on 3D models for training an object detection model. Moreover, the performance, and efficiency of the trained ML models on synthetic images is compared with ML models trained on real imagery and mixed imagery. Findings proved the effectiveness of the synthetic data for fire detection, while the performance improves as the test dataset covers a broader spectrum of real fires. Our findings illustrates that when synthetic imagery and real imagery is utilized in a mixed training set the resulting ML model outperforms models trained on real imagery as well as models trained on synthetic imagery for detection of a broad spectrum of fires. The proposed method for automating the annotation of synthetic fuzzy objects imagery carries substantial implications for reducing both time and cost in creating computer vision models specifically tailored for detecting fuzzy objects.
- Abstract(参考訳): ファジィ物体検出はコンピュータビジョン(CV)の研究の難しい分野である。
CVにおけるファジィ検出と非ファジィ検出の区別が重要である。
火、煙、霧、蒸気のようなファジィな物体は、木や車のような非ファジィな物体と比較して、視覚的特徴、ぼやけた縁、様々な形状、不透明さ、体積の点で著しく複雑である。
バランスのとれたデータセットと正確なアノテーションの収集はファジィオブジェクトのためのより良いMLモデルを実現するために重要であるが、コレクションとアノテーションのタスクは依然として非常に手作業である。
本研究では,オブジェクト検出モデルを訓練するための3次元モデルに基づいて,完全合成火災画像の生成と自動アノテートを行う方法を提案する。
さらに,合成画像における訓練されたMLモデルの性能と効率を,実画像と混合画像の訓練されたMLモデルと比較した。
火災検出のための合成データの有効性が実証された一方、テストデータセットは実際の火災の幅広い範囲をカバーするため、性能は向上した。
以上の結果から,合成画像と実画像が混合トレーニングセットで利用される場合,結果のMLモデルは実画像で訓練されたモデルと,広い範囲の火災を検出するための合成画像で訓練されたモデルより優れることがわかった。
合成ファジィオブジェクト画像のアノテーションを自動生成する手法は,ファジィオブジェクト検出に適したコンピュータビジョンモデルを作成する際に,時間とコストの両面で重要な意味を持つ。
関連論文リスト
- SynFog: A Photo-realistic Synthetic Fog Dataset based on End-to-end Imaging Simulation for Advancing Real-World Defogging in Autonomous Driving [48.27575423606407]
フォトリアリスティックな霧画像を生成するために,エンド・ツー・エンドのシミュレーションパイプラインを導入する。
我々は、スカイライトとアクティブな照明条件の両方を特徴とするSynFogという新しい合成霧データセットを提案する。
実験の結果,SynFogで訓練したモデルでは,視覚知覚と検出精度が優れていた。
論文 参考訳(メタデータ) (2024-03-25T18:32:41Z) - RANRAC: Robust Neural Scene Representations via Random Ray Consensus [12.161889666145127]
RANRAC(RANdom RAy Consensus)は、一貫性のないデータの影響を排除するための効率的な手法である。
我々はRANSACパラダイムのファジィ適応を定式化し、大規模モデルへの適用を可能にした。
その結果, 新規な視点合成のための最先端のロバストな手法と比較して, 顕著な改善が見られた。
論文 参考訳(メタデータ) (2023-12-15T13:33:09Z) - On the Robustness of Object Detection Models in Aerial Images [37.50307094643692]
DOTA-v1.0に基づく新しいベンチマークを2つ導入する。
第1のベンチマークは、19の一般的な汚職を含むが、第2のベンチマークは、クラウド崩壊したイメージに焦点を当てている。
改良されたモデルアーキテクチャ,大規模ネットワーク,高度に構築されたモジュール,および巧妙なデータ拡張戦略により,航空物体検出モデルの堅牢性が向上することがわかった。
論文 参考訳(メタデータ) (2023-08-29T15:16:51Z) - Exploring the Effectiveness of Dataset Synthesis: An application of
Apple Detection in Orchards [68.95806641664713]
本研究では,リンゴ樹の合成データセットを生成するための安定拡散2.1-baseの有用性について検討する。
我々は、現実世界のリンゴ検出データセットでリンゴを予測するために、YOLOv5mオブジェクト検出モデルを訓練する。
その結果、実世界の画像でトレーニングされたベースラインモデルと比較して、生成データでトレーニングされたモデルはわずかに性能が劣っていることがわかった。
論文 参考訳(メタデータ) (2023-06-20T09:46:01Z) - Synthetic Data for Object Classification in Industrial Applications [53.180678723280145]
オブジェクト分類では、オブジェクトごとに、異なる条件下で、多数の画像を取得することは必ずしも不可能である。
本研究は,学習データセット内の限られたデータに対処するゲームエンジンを用いた人工画像の作成について検討する。
論文 参考訳(メタデータ) (2022-12-09T11:43:04Z) - Is synthetic data from generative models ready for image recognition? [69.42645602062024]
本研究では,最新のテキスト・画像生成モデルから生成した合成画像が,画像認識タスクにどのように利用できるかを検討した。
本稿では,既存の生成モデルからの合成データの強大さと欠点を示し,認識タスクに合成データを適用するための戦略を提案する。
論文 参考訳(メタデータ) (2022-10-14T06:54:24Z) - Validation of object detection in UAV-based images using synthetic data [9.189702268557483]
UAVベースの検出のための機械学習(ML)モデルは、UAVアプリケーションとは無関係なタスクのためにキュレートされたデータを使用して検証されることが多い。
このようなエラーは、UAVの画像と訓練中の画像との間の画像条件の違いによって生じる。
本研究は,ゲームエンジンを用いて生成した合成データを用いて,異なるUAV画像条件が検出性能に与える影響を理解することに焦点を当てた。
論文 参考訳(メタデータ) (2022-01-17T20:56:56Z) - Salient Objects in Clutter [130.63976772770368]
本稿では,既存の正当性オブジェクト検出(SOD)データセットの重大な設計バイアスを特定し,対処する。
この設計バイアスは、既存のデータセットで評価した場合、最先端のSODモデルのパフォーマンスの飽和につながった。
我々は,新しい高品質データセットを提案し,前回のsaliencyベンチマークを更新する。
論文 参考訳(メタデータ) (2021-05-07T03:49:26Z) - Category Level Object Pose Estimation via Neural Analysis-by-Synthesis [64.14028598360741]
本稿では、勾配に基づくフィッティング法とパラメトリックニューラルネットワーク合成モジュールを組み合わせる。
画像合成ネットワークは、ポーズ設定空間を効率的に分散するように設計されている。
本研究では,2次元画像のみから高精度に物体の向きを復元できることを実験的に示す。
論文 参考訳(メタデータ) (2020-08-18T20:30:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。