論文の概要: Compositional Convolutional Neural Networks: A Robust and Interpretable
Model for Object Recognition under Occlusion
- arxiv url: http://arxiv.org/abs/2006.15538v1
- Date: Sun, 28 Jun 2020 08:18:19 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-16 02:41:59.872534
- Title: Compositional Convolutional Neural Networks: A Robust and Interpretable
Model for Object Recognition under Occlusion
- Title(参考訳): 構成畳み込みニューラルネットワーク : 咬合下の物体認識のためのロバストで解釈可能なモデル
- Authors: Adam Kortylewski and Qing Liu and Angtian Wang and Yihong Sun and Alan
Yuille
- Abstract要約: ブラックボックス深部畳み込みニューラルネットワーク(DCNN)は,部分閉塞に対する頑健性に限界がある。
構成畳み込みニューラルネットワーク(CompositionalNets)に部分ベースモデルとDCNNを統合することで、これらの制限を克服する。
実験により,コンポジションネットは,部分閉塞物体の分類・検出において,非構成対象に比べて大きなマージンで改善されていることが示された。
- 参考スコア(独自算出の注目度): 21.737411464598797
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Computer vision systems in real-world applications need to be robust to
partial occlusion while also being explainable. In this work, we show that
black-box deep convolutional neural networks (DCNNs) have only limited
robustness to partial occlusion. We overcome these limitations by unifying
DCNNs with part-based models into Compositional Convolutional Neural Networks
(CompositionalNets) - an interpretable deep architecture with innate robustness
to partial occlusion. Specifically, we propose to replace the fully connected
classification head of DCNNs with a differentiable compositional model that can
be trained end-to-end. The structure of the compositional model enables
CompositionalNets to decompose images into objects and context, as well as to
further decompose object representations in terms of individual parts and the
objects' pose. The generative nature of our compositional model enables it to
localize occluders and to recognize objects based on their non-occluded parts.
We conduct extensive experiments in terms of image classification and object
detection on images of artificially occluded objects from the PASCAL3D+ and
ImageNet dataset, and real images of partially occluded vehicles from the
MS-COCO dataset. Our experiments show that CompositionalNets made from several
popular DCNN backbones (VGG-16, ResNet50, ResNext) improve by a large margin
over their non-compositional counterparts at classifying and detecting
partially occluded objects. Furthermore, they can localize occluders accurately
despite being trained with class-level supervision only. Finally, we
demonstrate that CompositionalNets provide human interpretable predictions as
their individual components can be understood as detecting parts and estimating
an objects' viewpoint.
- Abstract(参考訳): 実世界のアプリケーションにおけるコンピュータビジョンシステムは、説明可能であると同時に部分閉塞に対して堅牢である必要がある。
本研究では,ブラックボックス深部畳み込みニューラルネットワーク(DCNN)が,部分閉塞に対する頑健性に限界があることを示す。
我々はこれらの制限をDCNNと部分モデルを統合することで克服し、構成畳み込みニューラルネットワーク(Comppositional Convolutional Neural Networks、CompositionalNets) – 部分オクルージョンに固有の堅牢性を備えた解釈可能なディープアーキテクチャである。
具体的には,完全に連結されたdcnnの分類ヘッドを,エンドツーエンドで訓練可能な微分可能な構成モデルに置き換えることを提案する。
構成モデルの構造により、コンポジションネットは、画像をオブジェクトとコンテキストに分解し、さらに個々の部分とオブジェクトのポーズの観点でオブジェクト表現を分解することができる。
構成モデルの生成特性は, 閉塞部位の局所化と非閉塞部位に基づく物体の認識を可能にする。
PASCAL3D+およびImageNetデータセットから得られた人工閉塞物体の画像と、MS-COCOデータセットから得られた部分閉塞車両の実画像について、画像分類と物体検出について広範な実験を行った。
実験の結果,いくつかのDCNNバックボーン (VGG-16, ResNet50, ResNext) のコンポジションネットは, 部分閉塞物体の分類・検出において, コンポジション以外のものとの差が大きいことがわかった。
さらに、クラスレベルの監督のみを訓練されているにもかかわらず、Occluderを正確にローカライズすることができる。
最後に,合成網が人間の解釈可能な予測を,個々の構成要素を検出部品として理解し,対象の視点を推定できることを実証する。
関連論文リスト
- Are Deep Learning Models Robust to Partial Object Occlusion in Visual Recognition Tasks? [4.9260675787714]
畳み込みニューラルネットワーク(CNN)を含む画像分類モデルは、様々な分類タスクでうまく機能するが、部分閉塞下では困難である。
我々は最近開発されたOccluded Video Instance(IRUO)データセット(arXiv:2102.01558)を基にした画像認識(IRUO)データセットをコントリビュートする。
現代のCNNベースモデルでは、従来のCNNベースモデルと比較して、隠蔽画像の認識精度が向上しており、ViTベースモデルは隠蔽画像のCNNベースモデルよりも精度が高いことが判明した。
論文 参考訳(メタデータ) (2024-09-16T23:21:22Z) - Unsupervised Part Discovery from Contrastive Reconstruction [90.88501867321573]
自己監督型視覚表現学習の目標は、強く伝達可能な画像表現を学習することである。
対象部分の発見とセグメンテーションに対する教師なしアプローチを提案する。
本手法は, 細粒度, 視覚的に異なるカテゴリ間でセマンティックな部分を生成する。
論文 参考訳(メタデータ) (2021-11-11T17:59:42Z) - Unsupervised Image Decomposition with Phase-Correlation Networks [28.502280038100167]
位相相関分解ネットワーク(PCDNet)は、シーンをオブジェクトコンポーネントに分解する新しいモデルである。
実験では,PCDNetが非教師対象発見とセグメンテーションの最先端手法よりも優れていることを示す。
論文 参考訳(メタデータ) (2021-10-07T13:57:33Z) - Compositional Sketch Search [91.84489055347585]
フリーハンドスケッチを用いて画像コレクションを検索するアルゴリズムを提案する。
シーン構成全体を特定するための簡潔で直感的な表現として描画を利用する。
論文 参考訳(メタデータ) (2021-06-15T09:38:09Z) - Neural Parts: Learning Expressive 3D Shape Abstractions with Invertible
Neural Networks [118.20778308823779]
Invertible Neural Network (INN) を用いてプリミティブを定義する新しい3次元プリミティブ表現を提案する。
私たちのモデルは、部品レベルの監督なしに3Dオブジェクトを意味的に一貫した部品配置に解析することを学びます。
論文 参考訳(メタデータ) (2021-03-18T17:59:31Z) - Robust Instance Segmentation through Reasoning about Multi-Object
Occlusion [9.536947328412198]
本稿では,隠蔽に頑健な多目的インスタンスセグメンテーションのためのディープネットワークを提案する。
私たちの研究は、神経機能アクティベーションの生成モデルを学習し、オクローダの発見に役立てています。
特に、オブジェクトクラスとそのインスタンスおよびオクルーダーセグメンテーションのフィードフォワード予測を得る。
論文 参考訳(メタデータ) (2020-12-03T17:41:55Z) - Understanding the Role of Individual Units in a Deep Neural Network [85.23117441162772]
本稿では,画像分類と画像生成ネットワーク内の隠れ単位を系統的に同定する分析フレームワークを提案する。
まず、シーン分類に基づいて訓練された畳み込みニューラルネットワーク(CNN)を分析し、多様なオブジェクト概念にマッチするユニットを発見する。
第2に、シーンを生成するために訓練されたGANモデルについて、同様の分析手法を用いて分析する。
論文 参考訳(メタデータ) (2020-09-10T17:59:10Z) - Category Level Object Pose Estimation via Neural Analysis-by-Synthesis [64.14028598360741]
本稿では、勾配に基づくフィッティング法とパラメトリックニューラルネットワーク合成モジュールを組み合わせる。
画像合成ネットワークは、ポーズ設定空間を効率的に分散するように設計されている。
本研究では,2次元画像のみから高精度に物体の向きを復元できることを実験的に示す。
論文 参考訳(メタデータ) (2020-08-18T20:30:47Z) - Robust Object Detection under Occlusion with Context-Aware
CompositionalNets [21.303976151518125]
構成畳み込みニューラルネットワーク(CompositionalNets)は、隠蔽対象の分類において堅牢であることが示されている。
そこで我々は,コンポジションネットの2つの制限を克服し,部分的に隠蔽されたオブジェクトを検出することを提案する。
論文 参考訳(メタデータ) (2020-05-24T02:57:34Z) - Learning Unsupervised Hierarchical Part Decomposition of 3D Objects from
a Single RGB Image [102.44347847154867]
プリミティブの集合として3次元オブジェクトの幾何を共同で復元できる新しい定式化を提案する。
我々のモデルは、プリミティブのバイナリツリーの形で、様々なオブジェクトの高レベルな構造的分解を復元する。
ShapeNet と D-FAUST のデータセットを用いた実験により,部品の組織化を考慮すれば3次元形状の推論が容易になることが示された。
論文 参考訳(メタデータ) (2020-04-02T17:58:05Z) - Compositional Convolutional Neural Networks: A Deep Architecture with
Innate Robustness to Partial Occlusion [18.276428975330813]
近年の研究では、ディープ畳み込みニューラルネットワーク(DCNN)は部分閉塞下では十分に一般化していないことが示されている。
部分閉塞物体の分類における構成モデルの成功に触発されて,我々は合成モデルとDCNNを統合された深部モデルに統合することを提案する。
人工隠蔽画像の分類実験と,MS-COCOデータセットから部分的に隠蔽された物体の実画像の分類実験を行った。
提案手法は, 学習中に隠蔽対象に露出していない場合でも, 部分的に隠蔽対象を分類し, 標準的なDCNNよりも優れていた。
論文 参考訳(メタデータ) (2020-03-10T01:45:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。