論文の概要: Deformable Capsules for Object Detection
- arxiv url: http://arxiv.org/abs/2104.05031v1
- Date: Sun, 11 Apr 2021 15:36:30 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-14 08:20:49.107517
- Title: Deformable Capsules for Object Detection
- Title(参考訳): 物体検出用変形可能なカプセル
- Authors: Rodney Lalonde, Naji Khosravan, Ulas Bagci
- Abstract要約: 変形可能なカプセル(DeformCaps)、新しいカプセル構造(SplitCaps)、および計算効率と多数のオブジェクトやクラスのモデリングの必要性のバランスをとるための新しい動的ルーティングアルゴリズム(SE-Routing)を紹介します。
提案アーキテクチャは1段階検出フレームワークであり,最先端の1段階CNN手法と同等のMS COCOについて結果を得る。
- 参考スコア(独自算出の注目度): 5.819237403145079
- License: http://creativecommons.org/publicdomain/zero/1.0/
- Abstract: Capsule networks promise significant benefits over convolutional networks by
storing stronger internal representations, and routing information based on the
agreement between intermediate representations' projections. Despite this,
their success has been mostly limited to small-scale classification datasets
due to their computationally expensive nature. Recent studies have partially
overcome this burden by locally-constraining the dynamic routing of features
with convolutional capsules. Though memory efficient, convolutional capsules
impose geometric constraints which fundamentally limit the ability of capsules
to model the pose/deformation of objects. Further, they do not address the
bigger memory concern of class-capsules scaling-up to bigger tasks such as
detection or large-scale classification. In this study, we introduce deformable
capsules (DeformCaps), a new capsule structure (SplitCaps), and a novel dynamic
routing algorithm (SE-Routing) to balance computational efficiency with the
need for modeling a large number of objects and classes. We demonstrate that
the proposed methods allow capsules to efficiently scale-up to large-scale
computer vision tasks for the first time, and create the first-ever capsule
network for object detection in the literature. Our proposed architecture is a
one-stage detection framework and obtains results on MS COCO which are on-par
with state-of-the-art one-stage CNN-based methods, while producing fewer false
positive detections.
- Abstract(参考訳): カプセルネットワークは、より強固な内部表現を格納し、中間表現の射影間の合意に基づくルーティング情報を格納することで、畳み込みネットワークよりも大きな利点を約束する。
しかし、その成功は計算的に高価な性質のため、小規模の分類データセットに限られている。
近年の研究では、畳み込みカプセルによる特徴の動的ルーティングを局所的に制限することで、この負担を部分的に克服している。
記憶効率は良いが、畳み込みカプセルは幾何学的な制約を課し、カプセルが物体のポーズや変形をモデル化する能力を制限する。
さらに、検出や大規模分類のようなより大きなタスクにスケールアップするクラスカプセルのより大きなメモリ上の懸念にも対処しない。
本研究では,変形可能なカプセル (deformcaps) と新しいカプセル構造 (splitcaps) と新しい動的ルーティングアルゴリズム (se-routing) を導入した。
提案手法により、カプセルを大規模コンピュータビジョンタスクに効率よくスケールアップし、文献におけるオブジェクト検出のための初のカプセルネットワークを構築することができる。
提案アーキテクチャは1段階検出フレームワークであり,最先端の1段階CNN手法と同等であり,偽陽性検出の少ないMS COCOで結果を得る。
関連論文リスト
- Small Object Detection via Coarse-to-fine Proposal Generation and
Imitation Learning [52.06176253457522]
本稿では,粗粒度パイプラインと特徴模倣学習に基づく小型物体検出に適した2段階フレームワークを提案する。
CFINetは、大規模な小さなオブジェクト検出ベンチマークであるSODA-DとSODA-Aで最先端の性能を達成する。
論文 参考訳(メタデータ) (2023-08-18T13:13:09Z) - ProtoCaps: A Fast and Non-Iterative Capsule Network Routing Method [6.028175460199198]
本稿では,カプセルネットワークのための新しい非定型ルーティング機構を提案する。
私たちは共有のCapsuleサブスペースを利用し、各下位のCapsuleを各上位のCapsuleに投影する必要性を否定します。
本研究は,カプセルネットワークの運用効率と性能を向上させるための提案手法の可能性を明らかにするものである。
論文 参考訳(メタデータ) (2023-07-19T12:39:40Z) - Hybrid Gromov-Wasserstein Embedding for Capsule Learning [24.520120182880333]
Capsule Network (CapsNets) は、オブジェクト、部品、およびそれらの関係を2段階のプロセスで解析することを目的としている。
階層的関係モデリングは計算コストが高く、潜在的な利点にもかかわらずCapsNetの利用が制限されている。
本稿では,標準ベースラインモデルを超え,高性能な畳み込みモデルよりも優れた性能を示すカプセルの学習手法を提案する。
論文 参考訳(メタデータ) (2022-09-01T05:26:32Z) - Towards Efficient Capsule Networks [7.1577508803778045]
カプセルネットワークはモデルの説明可能性を高めるために導入され、各カプセルはオブジェクトまたはその部分の明示的な表現である。
本稿では,Capsule Network を用いたプルーニングが,メモリ要件の低減,計算作業,推論とトレーニング時間といった高度な一般化を実現する方法を示す。
論文 参考訳(メタデータ) (2022-08-19T08:03:25Z) - Learning with Capsules: A Survey [73.31150426300198]
カプセルネットワークは、オブジェクト中心の表現を学習するための畳み込みニューラルネットワーク(CNN)に代わるアプローチとして提案された。
CNNとは異なり、カプセルネットワークは部分的に階層的な関係を明示的にモデル化するように設計されている。
論文 参考訳(メタデータ) (2022-06-06T15:05:36Z) - Routing with Self-Attention for Multimodal Capsule Networks [108.85007719132618]
我々は,カプセルの強度をマルチモーダル学習フレームワークの文脈で活用できる,新しいマルチモーダルカプセルネットワークを提案する。
カプセルを大規模入力データに適応させるために, カプセルを選択する自己保持機構による新たなルーティングを提案する。
これにより、ノイズの多いビデオデータによる堅牢なトレーニングだけでなく、従来のルーティング方法と比較してカプセルネットワークのサイズを拡大することが可能になる。
論文 参考訳(メタデータ) (2021-12-01T19:01:26Z) - Compact representations of convolutional neural networks via weight
pruning and quantization [63.417651529192014]
本稿では、音源符号化に基づく畳み込みニューラルネットワーク(CNN)の新しいストレージフォーマットを提案し、重み付けと量子化の両方を活用する。
我々は、全接続層で0.6%、ネットワーク全体で5.44%のスペース占有率を削減し、最低でもベースラインと同じくらいの競争力を発揮する。
論文 参考訳(メタデータ) (2021-08-28T20:39:54Z) - Efficient-CapsNet: Capsule Network with Self-Attention Routing [0.0]
深層畳み込みニューラルネットワークは、オブジェクト変換を埋め込むために、多数の機能マップを持つデータ拡張技術とレイヤを広範囲に活用する。
カプセルネットワークは、現在の畳み込みネットワークを拡張し、より効率的に全てのアフィン変換をエンコードするプロセスで人工的な視覚知覚を実現する、有望なソリューションである。
本稿では,カプセルネットワークの効率について検討し,その容量を160Kのパラメータをほとんど持たない極端なアーキテクチャで限界まで押し上げることにより,提案アーキテクチャがまだ最先端の結果が得られることを実証する。
論文 参考訳(メタデータ) (2021-01-29T09:56:44Z) - A Trainable Optimal Transport Embedding for Feature Aggregation and its
Relationship to Attention [96.77554122595578]
固定サイズのパラメータ化表現を導入し、与えられた入力セットから、そのセットとトレーニング可能な参照の間の最適な輸送計画に従って要素を埋め込み、集約する。
我々のアプローチは大規模なデータセットにスケールし、参照のエンドツーエンドのトレーニングを可能にすると同時に、計算コストの少ない単純な教師なし学習メカニズムも提供する。
論文 参考訳(メタデータ) (2020-06-22T08:35:58Z) - Subspace Capsule Network [85.69796543499021]
SubSpace Capsule Network (SCN) はカプセルネットワークのアイデアを利用して、エンティティの外観や暗黙的に定義された特性のバリエーションをモデル化する。
SCNは、テスト期間中にCNNと比較して計算オーバーヘッドを発生させることなく、識別モデルと生成モデルの両方に適用することができる。
論文 参考訳(メタデータ) (2020-02-07T17:51:56Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。