論文の概要: A Convolutional Persistence Transform
- arxiv url: http://arxiv.org/abs/2208.02107v1
- Date: Wed, 3 Aug 2022 14:37:50 GMT
- ステータス: 処理完了
- システム内更新日: 2022-08-04 14:16:23.034252
- Title: A Convolutional Persistence Transform
- Title(参考訳): 畳み込みパーシステンス変換
- Authors: Elchanan Solomon, Paul Bendich
- Abstract要約: 我々は,様々なフィルタで画像をコンボルディングすることで得られる,$d$次元画像の新しいトポロジ的フォーチュアライゼーションを考える。
結果として生じる畳み込みの永続化図は、そのイメージ全体を通してモチーフが分散される方法を記述している。
- 参考スコア(独自算出の注目度): 1.14219428942199
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: We consider a new topological feauturization of $d$-dimensional images,
obtained by convolving images with various filters before computing
persistence. Viewing a convolution filter as a motif within an image, the
persistence diagram of the resulting convolution describes the way the motif is
distributed throughout that image. This pipeline, which we call convolutional
persistence, extends the capacity of topology to observe patterns in image
data. Indeed, we prove that (generically speaking) for any two images one can
find some filter for which they produce different persistence diagrams, so that
the collection of all possible convolutional persistence diagrams for a given
image is an injective invariant. This is proven by showing convolutional
persistence to be a special case of another topological invariant, the
Persistent Homology Transform. Other advantages of convolutional persistence
are improved stability and robustness to noise, greater flexibility for
data-dependent vectorizations, and reduced computational complexity for
convolutions with large stride vectors. Additionally, we have a suite of
experiments showing that convolutions greatly improve the predictive power of
persistence on a host of classification tasks, even if one uses random filters
and vectorizes the resulting diagrams by recording only their total
persistences.
- Abstract(参考訳): 我々は,持続性を計算する前に,様々なフィルタで画像を変換して得られる$d$次元画像の新しいトポロジ的フォーチュアライズを考える。
畳み込みフィルタをイメージ内のモチーフと見なすと、結果として生じる畳み込みの永続図はそのイメージ全体にモチーフが分散される方法を記述する。
このパイプラインは畳み込み永続化(convolutional persistence)と呼ばれ、画像データのパターンを観測するトポロジーの能力を拡張します。
実際、任意の2つの画像に対して(実際は)異なる永続図を生成するフィルターを見つけることができ、ある画像に対するすべての可能な畳み込み持続図の集合が射影不変量であることを示す。
これは、別の位相不変量である永続ホモロジー変換の特別な場合として畳み込み持続性を示すことによって証明される。
畳み込み持続性のその他の利点は、安定性の向上とノイズに対する堅牢性、データ依存ベクトル化の柔軟性の向上、大きなストライドベクトルを持つ畳み込みの計算複雑性の低減である。
さらに, コンボリューションは, ランダムフィルタを使用し, 全体の持続性のみを記録することにより, 結果図をベクトル化する場合でも, 分類タスクのホスト上での持続性予測能力を大幅に向上させることを示した。
関連論文リスト
- Unsupervised Representation Learning from Sparse Transformation Analysis [79.94858534887801]
本稿では,潜在変数のスパース成分への変換を分解し,シーケンスデータから表現を学習することを提案する。
入力データは、まず潜伏活性化の分布として符号化され、その後確率フローモデルを用いて変換される。
論文 参考訳(メタデータ) (2024-10-07T23:53:25Z) - Gradient-Based Feature Learning under Structured Data [57.76552698981579]
異方性設定では、一般的に使用される球面勾配力学は真の方向を回復できないことがある。
バッチ正規化を連想させる適切な重み正規化は、この問題を軽減することができることを示す。
特に、スパイクモデルの下では、勾配に基づくトレーニングのサンプルの複雑さは情報指数とは独立にできる。
論文 参考訳(メタデータ) (2023-09-07T16:55:50Z) - ChiroDiff: Modelling chirographic data with Diffusion Models [132.5223191478268]
チャーログラフィーデータのための強力なモデルクラスである「拡散確率モデル(Denoising Diffusion Probabilistic Models)」やDDPMを導入している。
我々のモデルは「ChiroDiff」と呼ばれ、非自己回帰的であり、全体論的概念を捉えることを学び、したがって高い時間的サンプリングレートに回復する。
論文 参考訳(メタデータ) (2023-04-07T15:17:48Z) - DIFFormer: Scalable (Graph) Transformers Induced by Energy Constrained
Diffusion [66.21290235237808]
本稿では,データセットからのインスタンスのバッチを進化状態にエンコードするエネルギー制約拡散モデルを提案する。
任意のインスタンス対間の対拡散強度に対する閉形式最適推定を示唆する厳密な理論を提供する。
各種タスクにおいて優れた性能を有する汎用エンコーダバックボーンとして,本モデルの適用性を示す実験を行った。
論文 参考訳(メタデータ) (2023-01-23T15:18:54Z) - Convolutional Filtering on Sampled Manifolds [122.06927400759021]
サンプル多様体上の畳み込みフィルタリングは連続多様体フィルタリングに収束することを示す。
本研究は,ナビゲーション制御の問題点を実証的に明らかにした。
論文 参考訳(メタデータ) (2022-11-20T19:09:50Z) - Approximating Persistent Homology for Large Datasets [0.0]
永続ホモロジーは、永続図形の統計的な要約を生成する。
広く使われているにもかかわらず、データセットが非常に大きい場合、永続的ホモロジーは単純に実装できない。
サブサンプルの永続性図の平均は、より大きなデータセットの真の永続性ホモロジーの有効な近似であることを示す。
論文 参考訳(メタデータ) (2022-04-19T23:07:27Z) - Topographic VAEs learn Equivariant Capsules [84.33745072274942]
本稿では, 地理的に整理された潜伏変数を用いた深部生成モデルを効率的に学習するための新しい手法であるTopographic VAEを紹介する。
このようなモデルでは,MNIST上での桁数クラス,幅,スタイルなどの健全な特徴に応じて,その活性化を組織化することが実際に学べることが示される。
我々は、既存の群同変ニューラルネットワークの能力を拡張して、複素変換に近似した同値性を示す。
論文 参考訳(メタデータ) (2021-09-03T09:25:57Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。