論文の概要: SizeNet: Object Recognition via Object Real Size-based convolutional
networks
- arxiv url: http://arxiv.org/abs/2105.06188v1
- Date: Thu, 13 May 2021 11:03:24 GMT
- ステータス: 処理完了
- システム内更新日: 2021-05-14 14:10:44.795179
- Title: SizeNet: Object Recognition via Object Real Size-based convolutional
networks
- Title(参考訳): SizeNet:Object Real Size-based Convolutional Networkによるオブジェクト認識
- Authors: Xiaofei Li, Zhong Dong
- Abstract要約: 本論文では,オブジェクト認識の課題を解決するために,実際のサイズとオブジェクトの特徴の両方に基づいて,SizeNetというフレームワークを提案する。
SizeNetは、自家製のRsizeデータセットのオブジェクト認識実験に使用された。
- 参考スコア(独自算出の注目度): 9.836408006533375
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Inspired by the conclusion that human choose the visual cortex regions which
corresponding to the real size of the object to analyze the features of the
object, when realizing the objects in the real world. This paper presents a
framework -- SizeNet which based on both the real sizes and the features of
objects, to solve objects recognition problems. SizeNet was used for the
objects recognition experiments on the homemade Rsize dataset, and compared
with State-of-the-art Methods AlexNet, VGG-16, Inception V3, Resnet-18
DenseNet-121. The results show that SizeNet provides much higher accuracy rates
for the objects recognition than the other algorithms. SizeNet can solve the
two problems that correctly recognize the objects whose features are highly
similar but the real sizes are obviously different from each other, and
correctly distinguish the target object from the interference objects whose
real sizes are obviously different from the target object. This is because
SizeNet recognizes the object based not only the features, but also the real
size. The real size of the object can help to exclude the interference object
categories whose real size ranges do not match the real size of the object,
which greatly reducing the object categories' number in the label set used for
the downstream object recognition based on object features. SizeNet is of great
significance to the study of interpretable computer vision. Our code and
dataset will be made public.
- Abstract(参考訳): 現実の物体を実現する際に、人間が物体の実際の大きさに対応する視覚野の領域を選択して物体の特徴を分析するという結論にインスパイアされた。
本稿では、オブジェクト認識問題を解決するために、オブジェクトの実際のサイズと特徴の両方に基づいてSizeNetというフレームワークを提案する。
SizeNetは自家製Rsizeデータセットのオブジェクト認識実験に使われ、State-of-the-art Methods AlexNet, VGG-16, Inception V3, Resnet-18 DenseNet-121と比較された。
その結果、sizenetは他のアルゴリズムよりもオブジェクト認識の精度がずっと高いことがわかった。
sizenetは、特徴が非常に似ているが実際のサイズが明らかに異なるオブジェクトを正確に認識する2つの問題を解決することができ、ターゲットオブジェクトとターゲットオブジェクトとは明らかに実際のサイズが異なる干渉オブジェクトを正しく区別することができる。
これは、SizeNetが機能だけでなく実際のサイズもオブジェクトとして認識しているためである。
オブジェクトの実際のサイズは、実際のサイズ範囲がオブジェクトの実際のサイズと一致しない干渉オブジェクトカテゴリを排除するのに役立つ。
sizenetは、解釈可能なコンピュータビジョンの研究に非常に重要である。
コードとデータセットは公開されます。
関連論文リスト
- On the Importance of Large Objects in CNN Based Object Detection
Algorithms [0.0]
すべてのサイズで重要な学習機能において、大きなオブジェクトの重要性を強調します。
大きな物体により多くの重みを与えると、全ての物体の大きさに対する検出スコアが向上することを示す。
論文 参考訳(メタデータ) (2023-11-20T12:32:32Z) - Object Recognition in Different Lighting Conditions at Various Angles by
Deep Learning Method [0.0]
既存のコンピュータビジョンとオブジェクト検出方法は、ニューラルネットワークとディープラーニングに依存している。
本稿では,検出されたボックスの位置に基づいて,さまざまなオブジェクトの名称を分類することを目的とする。
このモデルの精度は,物体の比率やサンプル数に大きく影響されている。
論文 参考訳(メタデータ) (2022-10-18T06:23:26Z) - ARUBA: An Architecture-Agnostic Balanced Loss for Aerial Object
Detection [24.085715205081385]
我々は、オブジェクトのサイズを画像中の画素数、サイズ不均衡として、データセット内の特定のサイズのオブジェクトの過剰表現として表現する。
本稿では,任意のオブジェクト検出モデル上にプラグインとして適用可能な,新しいARchitectUre-Agnostic BAlanced Loss (ARUBA)を提案する。
論文 参考訳(メタデータ) (2022-10-10T11:28:16Z) - Object Detection in Aerial Images with Uncertainty-Aware Graph Network [61.02591506040606]
本稿では,ノードとエッジがオブジェクトによって表現される構造化グラフを用いた,新しい不確実性を考慮したオブジェクト検出フレームワークを提案する。
我々は我々のモデルをオブジェクトDETection(UAGDet)のための不確実性対応グラフネットワークと呼ぶ。
論文 参考訳(メタデータ) (2022-08-23T07:29:03Z) - High-resolution Iterative Feedback Network for Camouflaged Object
Detection [128.893782016078]
カモフラージュされたオブジェクトを背景に視覚的に同化させることは、オブジェクト検出アルゴリズムにとって難しい。
エッジやバウンダリのぼやけた視界を生じさせる細部劣化を避けるために,高分解能テクスチャの詳細を抽出することを目的としている。
我々は,高解像度特徴量による低解像度表現を反復的フィードバック方式で洗練する新しいHitNetを提案する。
論文 参考訳(メタデータ) (2022-03-22T11:20:21Z) - Location-Sensitive Visual Recognition with Cross-IOU Loss [177.86369890708457]
本稿では,オブジェクト検出,インスタンスセグメンテーション,ポーズ推定のための位置感知ネットワーク (LSNet) という統合ソリューションを提案する。
ディープニューラルネットワークをバックボーンとして、LSNetは、ターゲットオブジェクトの形状を一緒に定義するアンカーポイントとランドマークのセットを予測します。
論文 参考訳(メタデータ) (2021-04-11T02:17:14Z) - Contemplating real-world object classification [53.10151901863263]
Barbuらが最近提案したObjectNetデータセットを再分析した。
日常の状況に物を含むこと。
分離されたオブジェクトにディープモデルを適用すると、元の論文のようにシーン全体ではなく、約20~30%の性能改善が得られます。
論文 参考訳(メタデータ) (2021-03-08T23:29:59Z) - Slender Object Detection: Diagnoses and Improvements [74.40792217534]
本稿では,超高アスペクト比,すなわちtextbfslender オブジェクトの特定タイプの検出について検討する。
古典的物体検出法では、細い物体に対してのみ評価される場合、COCO上の18.9%のmAPの劇的な低下が観察される。
論文 参考訳(メタデータ) (2020-11-17T09:39:42Z) - NETNet: Neighbor Erasing and Transferring Network for Better Single Shot
Object Detection [170.30694322460045]
我々は、ピラミッドの特徴を再設定し、スケールアウェアな特徴を探索する新しいNeighbor Erasing and Transferring(NET)メカニズムを提案する。
NETNetと呼ばれるシングルショットネットワークは、スケールアウェアなオブジェクト検出のために構築されている。
論文 参考訳(メタデータ) (2020-01-18T15:21:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。