論文の概要: SGE net: Video object detection with squeezed GRU and information
entropy map
- arxiv url: http://arxiv.org/abs/2106.07224v1
- Date: Mon, 14 Jun 2021 08:26:17 GMT
- ステータス: 処理完了
- システム内更新日: 2021-06-15 15:57:36.066357
- Title: SGE net: Video object detection with squeezed GRU and information
entropy map
- Title(参考訳): SGEnet:圧縮GRUと情報エントロピーマップを用いたビデオオブジェクト検出
- Authors: Rui Su, Wenjing Huang, Haoyu Ma, Xiaowei Song, Jinglu Hu
- Abstract要約: 本稿では,映像オブジェクト検出のためのチャネル再生畳み込みGRU(Squeezed GRU)と情報エントロピーマップ(SGE-Net)を組み合わせた効率的な手法を提案する。
実験結果から,Squeezed GRUの精度向上,計算省力化,情報エントロピーアテンション機構の優位性が評価された。
- 参考スコア(独自算出の注目度): 8.830173002657366
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Recently, deep learning based video object detection has attracted more and
more attention. Compared with object detection of static images, video object
detection is more challenging due to the motion of objects, while providing
rich temporal information. The RNN-based algorithm is an effective way to
enhance detection performance in videos with temporal information. However,
most studies in this area only focus on accuracy while ignoring the calculation
cost and the number of parameters.
In this paper, we propose an efficient method that combines channel-reduced
convolutional GRU (Squeezed GRU), and Information Entropy map for video object
detection (SGE-Net). The experimental results validate the accuracy
improvement, computational savings of the Squeezed GRU, and superiority of the
information entropy attention mechanism on the classification performance. The
mAP has increased by 3.7 contrasted with the baseline, and the number of
parameters has decreased from 6.33 million to 0.67 million compared with the
standard GRU.
- Abstract(参考訳): 近年,深層学習に基づくビデオ物体検出が注目されている。
静止画像の物体検出と比較すると,映像物体検出は物体の動きにより困難であり,時間的情報も豊富である。
RNNに基づくアルゴリズムは、時間情報付きビデオにおける検出性能を高める効果的な方法である。
しかし、この分野のほとんどの研究は計算コストとパラメータの数を無視しながら精度にのみ焦点をあてている。
本稿では,チャネル再生畳み込みGRU(Squeezed GRU)と映像オブジェクト検出のための情報エントロピーマップ(SGE-Net)を組み合わせた効率的な手法を提案する。
実験の結果, 情報エントロピー注意機構の精度向上, 圧縮された gru の計算節約, および識別性能の優越性が検証された。
mAPはベースラインと対照的に3.7増加し、パラメータの数は標準のGRUに比べて6.33万から0.67万に減少した。
関連論文リスト
- Enhancing Layout Hotspot Detection Efficiency with YOLOv8 and PCA-Guided Augmentation [5.391764618878545]
レイアウトホットスポット検出のためのYOLOベースのフレームワークを提案する。
主成分分析(PCA)から抽出した情報を用いたレイアウト画像の拡張手法を提案する。
本フレームワークは,約83%の精度(リコール)を実現し,誤報率7.4%未満を維持した。
論文 参考訳(メタデータ) (2024-07-19T17:49:48Z) - Small Object Detection by DETR via Information Augmentation and Adaptive
Feature Fusion [4.9860018132769985]
RT-DETRモデルは、リアルタイムオブジェクト検出では良好に動作するが、小さなオブジェクト検出精度では不十分である。
異なるレベルから各特徴マップに学習可能なパラメータを割り当てる適応的特徴融合アルゴリズムを提案する。
これにより、異なるスケールでオブジェクトの特徴をキャプチャするモデルの能力が向上し、小さなオブジェクトを検出する精度が向上する。
論文 参考訳(メタデータ) (2024-01-16T00:01:23Z) - Innovative Horizons in Aerial Imagery: LSKNet Meets DiffusionDet for
Advanced Object Detection [55.2480439325792]
本稿では,LSKNetのバックボーンをDiffusionDetヘッドに統合したオブジェクト検出モデルの詳細な評価を行う。
提案手法は平均精度(MAP)を約45.7%向上させる。
この進歩は、提案された修正の有効性を強調し、航空画像解析の新しいベンチマークを設定する。
論文 参考訳(メタデータ) (2023-11-21T19:49:13Z) - Bridging the Performance Gap between DETR and R-CNN for Graphical Object
Detection in Document Images [11.648151981111436]
本稿では,DTRとR-CNNのパフォーマンスギャップを図形オブジェクト検出のために橋渡しする重要なステップを踏む。
異なる方法でオブジェクトクエリを変更し、ポイントを使用し、アンカーボックスを使用し、パフォーマンスを高めるためにアンカーに正と負のノイズを追加します。
我々は、PubTables、TableBank、NTable、PubLaynetの4つのグラフデータセットに対するアプローチを評価した。
論文 参考訳(メタデータ) (2023-06-23T14:46:03Z) - 3D Small Object Detection with Dynamic Spatial Pruning [62.72638845817799]
本稿では,3次元小物体検出のための効率的な特徴解析手法を提案する。
空間分解能の高いDSPDet3Dというマルチレベル3次元検出器を提案する。
ほぼ全ての物体を検知しながら、4500k以上のポイントからなる建物全体を直接処理するには2秒もかからない。
論文 参考訳(メタデータ) (2023-05-05T17:57:04Z) - AGO-Net: Association-Guided 3D Point Cloud Object Detection Network [86.10213302724085]
ドメイン適応によるオブジェクトの無傷な特徴を関連付ける新しい3D検出フレームワークを提案する。
我々は,KITTIの3D検出ベンチマークにおいて,精度と速度の両面で最新の性能を実現する。
論文 参考訳(メタデータ) (2022-08-24T16:54:38Z) - Knowledge Distillation for Oriented Object Detection on Aerial Images [1.827510863075184]
本稿では,KD-RNetの知識蒸留による空中画像の回転物体検出のためのモデル圧縮手法を提案する。
大規模空中物体検出データセット(DOTA)による実験結果から,提案したKD-RNetモデルにより,パラメータ数を削減した平均値精度(mAP)が向上し,同時にKD-RNetは,基底アノテーションと高い重なり合う高品質検出を提供することで,性能を向上することを示した。
論文 参考訳(メタデータ) (2022-06-20T14:24:16Z) - SALISA: Saliency-based Input Sampling for Efficient Video Object
Detection [58.22508131162269]
ビデオオブジェクト検出のための新しい一様SALiencyベースの入力SAmpling技術であるSALISAを提案する。
SALISAは小物体の検出を著しく改善することを示す。
論文 参考訳(メタデータ) (2022-04-05T17:59:51Z) - Motion Vector Extrapolation for Video Object Detection [0.0]
MOVEXは、一般的なCPUベースのシステムで低レイテンシのビデオオブジェクト検出を可能にする。
提案手法は,任意の対象検出器のベースライン遅延を著しく低減することを示す。
さらなるレイテンシ低減は、元のレイテンシよりも最大25倍低いもので、最小限の精度で達成できる。
論文 参考訳(メタデータ) (2021-04-18T17:26:37Z) - InfoFocus: 3D Object Detection for Autonomous Driving with Dynamic
Information Modeling [65.47126868838836]
動的情報モデリングを用いた新しい3次元オブジェクト検出フレームワークを提案する。
粗い予測は、ボクセルベースの領域提案ネットワークを介して第1段階で生成される。
大規模なnuScenes 3D検出ベンチマークで実験を行った。
論文 参考訳(メタデータ) (2020-07-16T18:27:08Z) - Expandable YOLO: 3D Object Detection from RGB-D Images [64.14512458954344]
本稿では,ステレオカメラから深度とカラー画像を入力する軽量物体検出器の構築を目的とする。
YOLOv3のネットワークアーキテクチャを中央から3Dに拡張することにより、深さ方向の出力が可能となる。
領域抽出結果の精度を確認するため、3次元空間におけるユニノン(IoU)の切断を導入する。
論文 参考訳(メタデータ) (2020-06-26T07:32:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。