論文の概要: Moving object detection from multi-depth images with an attention-enhanced CNN
- arxiv url: http://arxiv.org/abs/2512.05415v1
- Date: Fri, 05 Dec 2025 04:29:37 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-13 22:40:56.897203
- Title: Moving object detection from multi-depth images with an attention-enhanced CNN
- Title(参考訳): 注目強調CNNを用いた多次元画像からの移動物体検出
- Authors: Masato Shibukawa, Fumi Yoshida, Toshifumi Yanagisawa, Takashi Ito, Hirohisa Kurosaki, Makoto Yoshikawa, Kohki Kamiya, Ji-an Jiang, Wesley Fraser, JJ Kavelaars, Susan Benecchi, Anne Verbiscer, Akira Hatakeyama, Hosei O, Naoya Ozaki,
- Abstract要約: 太陽系で動く物体を検知する最大の課題の1つは、信号が真の物体を示すのか、あるいはノイズなどの他の原因によるものなのかを決定することである。
本稿では,畳み込みブロックアテンションモジュールと統合された多入力畳み込みニューラルネットワークを提案する。
物体検出のしきい値を調整することで、新しいモデルは手動による検証と比較して、人間の作業量を99%以上削減する。
- 参考スコア(独自算出の注目度): 0.6522745516142104
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: One of the greatest challenges for detecting moving objects in the solar system from wide-field survey data is determining whether a signal indicates a true object or is due to some other source, like noise. Object verification has relied heavily on human eyes, which usually results in significant labor costs. In order to address this limitation and reduce the reliance on manual intervention, we propose a multi-input convolutional neural network integrated with a convolutional block attention module. This method is specifically tailored to enhance the moving object detection system that we have developed and used previously. The current method introduces two innovations. This first one is a multi-input architecture that processes multiple stacked images simultaneously. The second is the incorporation of the convolutional block attention module which enables the model to focus on essential features in both spatial and channel dimensions. These advancements facilitate efficient learning from multiple inputs, leading to more robust detection of moving objects. The performance of the model is evaluated on a dataset consisting of approximately 2,000 observational images. We achieved an accuracy of nearly 99% with AUC (an Area Under the Curve) of >0.99. These metrics indicate that the proposed model achieves excellent classification performance. By adjusting the threshold for object detection, the new model reduces the human workload by more than 99% compared to manual verification.
- Abstract(参考訳): 広域調査データから太陽系の移動物体を検出する上での最大の課題の1つは、信号が真の物体を示すのか、あるいはノイズなどの他の原因によるものなのかを判断することである。
物体の検証は人間の目に大きく依存しており、それは通常、かなりの労働コストをもたらす。
この制限に対処し、手動介入への依存を減らすために、畳み込みブロックアテンションモジュールと統合された多入力畳み込みニューラルネットワークを提案する。
本手法は,これまでに開発した移動物体検出システムの改良に特化している。
現在の方法には2つの革新がある。
これは、複数のスタックイメージを同時に処理するマルチインプットアーキテクチャである。
2つ目は、畳み込みブロックアテンションモジュールを組み込むことで、モデルが空間次元とチャネル次元の両方において不可欠な特徴に集中できるようにする。
これらの進歩は複数の入力からの効率的な学習を促進し、移動物体のより堅牢な検出に繋がる。
約2000枚の観測画像からなるデータセットを用いてモデルの性能を評価する。
AUC(Area Under the Curve)が0.99の精度で99%の精度で達成した。
これらの指標は,提案モデルが優れた分類性能を達成できることを示唆している。
物体検出のしきい値を調整することで、新しいモデルは手動による検証と比較して、人間の作業量を99%以上削減する。
関連論文リスト
- YOLC: You Only Look Clusters for Tiny Object Detection in Aerial Images [33.80392696735718]
YOLC(You Only Look Clusters)は、アンカーフリーなオブジェクト検出器であるCenterNet上に構築された、効率的で効果的なフレームワークである。
大規模画像や非一様オブジェクトの分布がもたらす課題を克服するため,正確な検出のためにクラスタ領域のズームインを適応的に検索するローカルスケールモジュール(LSM)を導入する。
Visdrone 2019 と UAVDT を含む2つの航空画像データセットに対する広範な実験を行い、提案手法の有効性と優位性を実証した。
論文 参考訳(メタデータ) (2024-04-09T10:03:44Z) - Innovative Horizons in Aerial Imagery: LSKNet Meets DiffusionDet for
Advanced Object Detection [55.2480439325792]
本稿では,LSKNetのバックボーンをDiffusionDetヘッドに統合したオブジェクト検出モデルの詳細な評価を行う。
提案手法は平均精度(MAP)を約45.7%向上させる。
この進歩は、提案された修正の有効性を強調し、航空画像解析の新しいベンチマークを設定する。
論文 参考訳(メタデータ) (2023-11-21T19:49:13Z) - Fast and Accurate Object Detection on Asymmetrical Receptive Field [0.0]
本稿では,物体検出精度を受容場の変化の観点から改善する手法を提案する。
YOLOv5の頭部の構造は、非対称なプール層を付加することによって改変される。
本稿では, 従来の YOLOv5 モデルと比較し, いくつかのパラメータから解析する。
論文 参考訳(メタデータ) (2023-03-15T23:59:18Z) - You Better Look Twice: a new perspective for designing accurate
detectors with reduced computations [56.34005280792013]
BLT-netは、新しい低計算の2段階オブジェクト検出アーキテクチャである。
非常にエレガントな第1ステージを使用して、オブジェクトをバックグラウンドから分離することで、計算を削減します。
結果のイメージ提案は、高度に正確なモデルによって第2段階で処理される。
論文 参考訳(メタデータ) (2021-07-21T12:39:51Z) - Improved detection of small objects in road network sequences [0.0]
本稿では,畳み込みニューラルネットワークによる検出に基づく超解像プロセスを適用し,小型物体の検出手法を提案する。
本研究は, 異なるスケールの要素を含むトラヒック画像の集合に対して, モデルにより得られた検出値に従って効率を試験するために試験された。
論文 参考訳(メタデータ) (2021-05-18T10:13:23Z) - DecAug: Augmenting HOI Detection via Decomposition [54.65572599920679]
現在のアルゴリズムでは、データセット内のトレーニングサンプルやカテゴリの不均衡が不足している。
本稿では,HOI検出のためのDECAugと呼ばれる効率的かつ効率的なデータ拡張手法を提案する。
実験の結果,V-COCOおよびHICODETデータセットの3.3mAPと1.6mAPの改善が得られた。
論文 参考訳(メタデータ) (2020-10-02T13:59:05Z) - Anchor-free Small-scale Multispectral Pedestrian Detection [88.7497134369344]
適応型単一段アンカーフリーベースアーキテクチャにおける2つのモードの効果的かつ効率的な多重スペクトル融合法を提案する。
我々は,直接的境界ボックス予測ではなく,対象の中心と規模に基づく歩行者表現の学習を目指す。
その結果,小型歩行者の検出における本手法の有効性が示唆された。
論文 参考訳(メタデータ) (2020-08-19T13:13:01Z) - Few-shot Object Detection on Remote Sensing Images [11.40135025181393]
リモートセンシング画像におけるオブジェクト検出のための数ショットの学習手法を提案する。
我々は、YOLOv3アーキテクチャに基づいて、少数ショットオブジェクト検出モデルを構築し、マルチスケールオブジェクト検出フレームワークを開発する。
論文 参考訳(メタデータ) (2020-06-14T07:18:10Z) - Condensing Two-stage Detection with Automatic Object Key Part Discovery [87.1034745775229]
2段階の物体検出器は通常、高い精度を達成するために、検出ヘッドのために過度に大きなモデルを必要とする。
そこで本研究では,2段階検出ヘッドのモデルパラメータを,対象キー部分に集中させることで縮合・縮小できることを示す。
提案手法は、一般的な2段検出ヘッドのモデルパラメータの約50%を放棄しながら、元の性能を一貫して維持する。
論文 参考訳(メタデータ) (2020-06-10T01:20:47Z) - One-Shot Object Detection without Fine-Tuning [62.39210447209698]
本稿では,第1ステージのMatching-FCOSネットワークと第2ステージのStructure-Aware Relation Moduleからなる2段階モデルを提案する。
また,検出性能を効果的に向上する新たなトレーニング戦略を提案する。
提案手法は,複数のデータセット上で一貫した最先端のワンショット性能を上回る。
論文 参考訳(メタデータ) (2020-05-08T01:59:23Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。