論文の概要: $\beta$-CapsNet: Learning Disentangled Representation for CapsNet by
Information Bottleneck
- arxiv url: http://arxiv.org/abs/2209.05239v1
- Date: Mon, 12 Sep 2022 13:34:34 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-13 13:25:51.299871
- Title: $\beta$-CapsNet: Learning Disentangled Representation for CapsNet by
Information Bottleneck
- Title(参考訳): $\beta$-CapsNet: Information BottleneckによるCapsNetのアンタングル表現学習
- Authors: Ming-fei Hu, Jian-wei Liu
- Abstract要約: 本稿では,情報ボトルネック制約によるCapsNetの不整合表現の学習フレームワークを提案する。
本稿では,CapsNetと比較して最先端のアンタングル化性能を実現する。
- 参考スコア(独自算出の注目度): 3.0437362638485994
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We present a framework for learning disentangled representation of CapsNet by
information bottleneck constraint that distills information into a compact form
and motivates to learn an interpretable factorized capsule. In our
$\beta$-CapsNet framework, hyperparameter $\beta$ is utilized to trade-off
disentanglement and other tasks, variational inference is utilized to convert
the information bottleneck term into a KL divergence that is approximated as a
constraint on the mean of the capsule. For supervised learning, class
independent mask vector is used for understanding the types of variations
synthetically irrespective of the image class, we carry out extensive
quantitative and qualitative experiments by tuning the parameter $\beta$ to
figure out the relationship between disentanglement, reconstruction and
classfication performance. Furthermore, the unsupervised $\beta$-CapsNet and
the corresponding dynamic routing algorithm is proposed for learning
disentangled capsule in an unsupervised manner, extensive empirical evaluations
suggest that our $\beta$-CapsNet achieves state-of-the-art disentanglement
performance compared to CapsNet and various baselines on several complex
datasets both in supervision and unsupervised scenes.
- Abstract(参考訳): 本稿では,情報をコンパクトな形で蒸留し,解釈可能な因子化カプセルを学習する,情報ボトルネック制約によるCapsNetの不整合表現学習フレームワークを提案する。
当社の$\beta$-CapsNetフレームワークでは、ハイパーパラメータ$\beta$をトレードオフ不整合やその他のタスクに使用して、情報ボトルネック項をカプセル平均の制約として近似したKL分散に変換するために、変動推論を利用する。
教師あり学習では,画像クラスによらず,変形の種類を合成的に理解するためにクラス独立マスクベクトルが用いられ,パラメータ$\beta$をチューニングして広範囲な量的・質的実験を行い,乱れ,再構成,分類性能の関係を解明した。
さらに,unsupervised $\beta$-capsnetとそれに対応する動的ルーティングアルゴリズムが,無監督でカプセルを学習するために提案されている。
関連論文リスト
- Hierarchical Object-Centric Learning with Capsule Networks [0.0]
畳み込みニューラルネットワークの制限に対処するために、カプセルネットワーク(CapsNets)が導入された。
この論文はCapsNetsの興味深い側面を調査し、その潜在能力を解き放つための3つの重要な疑問に焦点を当てている。
論文 参考訳(メタデータ) (2024-05-30T09:10:33Z) - RobCaps: Evaluating the Robustness of Capsule Networks against Affine
Transformations and Adversarial Attacks [11.302789770501303]
Capsule Networks(CapsNets)は、画像分類タスクのための複数のオブジェクト間のポーズ関係を階層的に保存することができる。
本稿では、従来のコナールニューラルネットワーク(CNN)と比較して、CapsNetsの堅牢性に影響を与えるさまざまな要因を評価する。
論文 参考訳(メタデータ) (2023-04-08T09:58:35Z) - Improved Regret for Efficient Online Reinforcement Learning with Linear
Function Approximation [69.0695698566235]
線形関数近似による強化学習と,コスト関数の逆変化について検討した。
本稿では,未知のダイナミクスと帯域幅フィードバックの一般設定に挑戦する,計算効率のよいポリシ最適化アルゴリズムを提案する。
論文 参考訳(メタデータ) (2023-01-30T17:26:39Z) - Caption supervision enables robust learners [24.936204628969623]
標準的なクロスエントロピー損失でトレーニングされたCNNは、VLモデルよりも多く、場合によっては同じデータ上でキャプション監督の恩恵を受ける可能性があることを示す。
精度の高いキャプション教師付きモデルによる将来の実験を容易にするために,CaptionNetを紹介する。
CaptionNetの一連の実験において、損失関数、データフィルタリング、監視戦略の選択がいかに堅牢なコンピュータビジョンを実現するかを示す。
論文 参考訳(メタデータ) (2022-10-13T22:29:10Z) - Hybrid Gromov-Wasserstein Embedding for Capsule Learning [24.520120182880333]
Capsule Network (CapsNets) は、オブジェクト、部品、およびそれらの関係を2段階のプロセスで解析することを目的としている。
階層的関係モデリングは計算コストが高く、潜在的な利点にもかかわらずCapsNetの利用が制限されている。
本稿では,標準ベースラインモデルを超え,高性能な畳み込みモデルよりも優れた性能を示すカプセルの学習手法を提案する。
論文 参考訳(メタデータ) (2022-09-01T05:26:32Z) - FlowCaps: Optical Flow Estimation with Capsule Networks For Action
Recognition [22.712379018181398]
Capsule Networks(CapsNets)は最近、ほとんどのコンピュータビジョンタスクに優れたことを約束している。
本稿では,CapsNetをベースとしたFlowCapsアーキテクチャを提案する。
論文 参考訳(メタデータ) (2020-11-08T11:35:08Z) - Budget Learning via Bracketing [50.085728094234476]
予算学習の問題は、学習者の目標として、雲の使用を最小限に抑えつつ、精度の明確な損失を被ることである。
本稿ではブラケットの概念を用いてBL問題に対する新しい定式化を提案する。
我々は、実世界のデータセットに関する我々の理論を実証的に検証し、事前ゲーティングに基づく手法よりも優れた性能を示す。
論文 参考訳(メタデータ) (2020-04-14T04:38:14Z) - A Theory of Usable Information Under Computational Constraints [103.5901638681034]
本稿では,複雑なシステムにおける情報推論のための新しいフレームワークを提案する。
我々の基礎はシャノンの情報理論の変分拡張に基づいている。
計算制約を組み込むことで,データから$mathcalV$-informationを確実に推定できることを示す。
論文 参考訳(メタデータ) (2020-02-25T06:09:30Z) - CoLES: Contrastive Learning for Event Sequences with Self-Supervision [63.3568071938238]
本研究では,実世界のユーザが生成する個別イベントシーケンスにおける自己教師型学習の課題に対処する。
従来,音声やコンピュータビジョンの領域で使われていたコントラスト学習に適応する新しい手法"CoLES"を提案する。
論文 参考訳(メタデータ) (2020-02-19T15:15:57Z) - Subspace Capsule Network [85.69796543499021]
SubSpace Capsule Network (SCN) はカプセルネットワークのアイデアを利用して、エンティティの外観や暗黙的に定義された特性のバリエーションをモデル化する。
SCNは、テスト期間中にCNNと比較して計算オーバーヘッドを発生させることなく、識別モデルと生成モデルの両方に適用することができる。
論文 参考訳(メタデータ) (2020-02-07T17:51:56Z) - Identifying and Compensating for Feature Deviation in Imbalanced Deep
Learning [59.65752299209042]
このようなシナリオ下でのConvNetの学習について検討する。
私たちは、ConvNetがマイナーなクラスにかなり適合していることに気づきました。
クラス依存型温度トレーニング(CDT)のConvNetの導入を提案する。
論文 参考訳(メタデータ) (2020-01-06T03:52:11Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。