論文の概要: Pushing the Limits of Capsule Networks
- arxiv url: http://arxiv.org/abs/2103.08074v1
- Date: Mon, 15 Mar 2021 00:30:34 GMT
- ステータス: 処理完了
- システム内更新日: 2021-03-17 02:19:17.397147
- Title: Pushing the Limits of Capsule Networks
- Title(参考訳): カプセルネットワークの限界を押し上げる
- Authors: Prem Nair, Rohan Doshi, Stefan Keselj
- Abstract要約: 畳み込みニューラルネットワークは、互いに相対的に特徴の場所の表現を明示的に保持しない。
Google Brainのチームが最近、この問題を解決しようとしている: Capsule Networks。
CapsNetのパフォーマンスと表現性をよりよく理解するために、さまざまなインクリメンタルな方法でテストしたいと思っています。
- 参考スコア(独自算出の注目度): 1.8231854497751137
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Convolutional neural networks use pooling and other downscaling operations to
maintain translational invariance for detection of features, but in their
architecture they do not explicitly maintain a representation of the locations
of the features relative to each other. This means they do not represent two
instances of the same object in different orientations the same way, like
humans do, and so training them often requires extensive data augmentation and
exceedingly deep networks. A team at Google Brain recently made news with an
attempt to fix this problem: Capsule Networks. While a normal CNN works with
scalar outputs representing feature presence, a CapsNet works with vector
outputs representing entity presence. We want to stress test CapsNet in various
incremental ways to better understand their performance and expressiveness. In
broad terms, the goals of our investigation are: (1) test CapsNets on datasets
that are like MNIST but harder in a specific way, and (2) explore the internal
embedding space and sources of error for CapsNets.
- Abstract(参考訳): 畳み込みニューラルネットワークは、機能検出のための翻訳不変性を維持するためにプーリングやその他のダウンスケーリング操作を使用するが、そのアーキテクチャでは、互いに相対的に特徴の場所の表現を明示的に保持していない。
つまり、同じオブジェクトの2つのインスタンスを人間と同じように異なる向きで表現していないため、トレーニングには大規模なデータ拡張と極めて深いネットワークが必要です。
Google Brainのチームが最近、この問題を解決しようとしている: Capsule Networks。
通常のCNNは機能の存在を表すスカラー出力で動作するが、CapsNetはエンティティの存在を表すベクトル出力で動作する。
CapsNetのパフォーマンスと表現性をよりよく理解するために、さまざまなインクリメンタルな方法でテストしたいと思っています。
本研究の目的は,(1)mnistに近いが特定の方法では難しいデータセットのcapsnetsをテストすること,(2)capsnetsの内部埋め込み空間とエラーの原因を探索すること,である。
関連論文リスト
- RobCaps: Evaluating the Robustness of Capsule Networks against Affine
Transformations and Adversarial Attacks [11.302789770501303]
Capsule Networks(CapsNets)は、画像分類タスクのための複数のオブジェクト間のポーズ関係を階層的に保存することができる。
本稿では、従来のコナールニューラルネットワーク(CNN)と比較して、CapsNetsの堅牢性に影響を与えるさまざまな要因を評価する。
論文 参考訳(メタデータ) (2023-04-08T09:58:35Z) - Dynamic Graph Message Passing Networks for Visual Recognition [112.49513303433606]
長距離依存のモデリングは、コンピュータビジョンにおけるシーン理解タスクに不可欠である。
完全連結グラフはそのようなモデリングには有益であるが、計算オーバーヘッドは禁じられている。
本稿では,計算複雑性を大幅に低減する動的グラフメッセージパッシングネットワークを提案する。
論文 参考訳(メタデータ) (2022-09-20T14:41:37Z) - SVNet: Where SO(3) Equivariance Meets Binarization on Point Cloud
Representation [65.4396959244269]
本論文は,3次元学習アーキテクチャを構築するための一般的なフレームワークを設計することによる課題に対処する。
提案手法はPointNetやDGCNNといった一般的なバックボーンに適用できる。
ModelNet40、ShapeNet、および実世界のデータセットであるScanObjectNNの実験では、この手法が効率、回転、精度の間の大きなトレードオフを達成することを示した。
論文 参考訳(メタデータ) (2022-09-13T12:12:19Z) - CapsNet for Medical Image Segmentation [8.612958742534673]
畳み込みニューラルネットワーク(CNN)は、コンピュータビジョンにおけるタスクの解決に成功している。
CNNは回転とアフィン変換に敏感であり、その成功は巨大なラベル付きデータセットに依存している。
CapsNetは、表現学習においてより堅牢性を達成した新しいアーキテクチャである。
論文 参考訳(メタデータ) (2022-03-16T21:15:07Z) - Spiking CapsNet: A Spiking Neural Network With A Biologically Plausible
Routing Rule Between Capsules [9.658836348699161]
スパイキングニューラルネットワーク(SNN)は、その強力な時間情報表現能力により、多くの注目を集めている。
CapsNetは、さまざまなレベルの組み立てと結合でうまく機能する。
ニューラルネットワークのモデリングにカプセルを導入することで、Spking CapsNetを提案する。
論文 参考訳(メタデータ) (2021-11-15T14:23:15Z) - Parallel Capsule Networks for Classification of White Blood Cells [1.5749416770494706]
Capsule Networks(CapsNets)は、畳み込みニューラルネットワーク(CNN)の欠点を克服するために提案された機械学習アーキテクチャである。
我々は,特定のカプセルを分離するためにネットワークを分岐するという概念を活用する,新しいアーキテクチャであるCapsNetsを提案する。
論文 参考訳(メタデータ) (2021-08-05T14:30:44Z) - Learning distinct features helps, provably [98.78384185493624]
最小二乗損失で訓練された2層ニューラルネットワークによって学習された特徴の多様性について検討する。
隠蔽層の特徴間の平均的な$L$-distanceで多様性を測定する。
論文 参考訳(メタデータ) (2021-06-10T19:14:45Z) - Leveraging Sparse Linear Layers for Debuggable Deep Networks [86.94586860037049]
学習した深い特徴表現に疎い線形モデルを適用することで、よりデバッグ可能なニューラルネットワークを実現する方法を示す。
その結果、スパースな説明は、スプリアス相関を特定し、誤分類を説明し、視覚および言語タスクにおけるモデルバイアスを診断するのに役立ちます。
論文 参考訳(メタデータ) (2021-05-11T08:15:25Z) - Interpretable Graph Capsule Networks for Object Recognition [17.62514568986647]
我々は,グラフカプセルネットワーク(GraCapsNets)を解釈可能とし,ルーティング部分をマルチヘッドアテンションベースのグラフポーリングアプローチで置き換える。
GraCapsNetsは、CapsNetsと比較して、より少ないパラメータとより良い逆の堅牢性で、より良い分類性能を達成する。
論文 参考訳(メタデータ) (2020-12-03T03:18:00Z) - iCapsNets: Towards Interpretable Capsule Networks for Text
Classification [95.31786902390438]
従来の機械学習手法は容易に解釈できるが、精度は低い。
このギャップを埋めるために、解釈可能なカプセルネットワーク(iCapsNets)を提案する。
iCapsNetsは、ローカルとグローバルの両方で解釈できる。
論文 参考訳(メタデータ) (2020-05-16T04:11:44Z) - Subspace Capsule Network [85.69796543499021]
SubSpace Capsule Network (SCN) はカプセルネットワークのアイデアを利用して、エンティティの外観や暗黙的に定義された特性のバリエーションをモデル化する。
SCNは、テスト期間中にCNNと比較して計算オーバーヘッドを発生させることなく、識別モデルと生成モデルの両方に適用することができる。
論文 参考訳(メタデータ) (2020-02-07T17:51:56Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。