論文の概要: Metric Convolutions: A Unifying Theory to Adaptive Convolutions
- arxiv url: http://arxiv.org/abs/2406.05400v1
- Date: Sat, 8 Jun 2024 08:41:12 GMT
- ステータス: 処理完了
- システム内更新日: 2024-06-11 19:55:06.894063
- Title: Metric Convolutions: A Unifying Theory to Adaptive Convolutions
- Title(参考訳): Metric Convolutions: 適応的畳み込みに対する統一理論
- Authors: Thomas Dagès, Michael Lindenbaum, Alfred M. Bruckstein,
- Abstract要約: メトリック畳み込みは、画像処理とディープラーニングにおける標準的な畳み込みを置き換える。
パラメータを少なくし、より良い一般化を提供する。
提案手法は,標準的な分類タスクにおける競合性能を示す。
- 参考スコア(独自算出の注目度): 3.481985817302898
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Standard convolutions are prevalent in image processing and deep learning, but their fixed kernel design limits adaptability. Several deformation strategies of the reference kernel grid have been proposed. Yet, they lack a unified theoretical framework. By returning to a metric perspective for images, now seen as two-dimensional manifolds equipped with notions of local and geodesic distances, either symmetric (Riemannian metrics) or not (Finsler metrics), we provide a unifying principle: the kernel positions are samples of unit balls of implicit metrics. With this new perspective, we also propose metric convolutions, a novel approach that samples unit balls from explicit signal-dependent metrics, providing interpretable operators with geometric regularisation. This framework, compatible with gradient-based optimisation, can directly replace existing convolutions applied to either input images or deep features of neural networks. Metric convolutions typically require fewer parameters and provide better generalisation. Our approach shows competitive performance in standard denoising and classification tasks.
- Abstract(参考訳): イメージ処理やディープラーニングでは標準的な畳み込みが一般的だが、固定されたカーネル設計は適応性を制限している。
参照カーネルグリッドの変形戦略が提案されている。
しかし、それらは統一された理論的な枠組みを欠いている。
画像の計量的視点に戻すことで、現在では局所的および測地的距離の概念を持つ2次元多様体として、対称的(リーマン計量)かそうでない(フィンスラー計量)のいずれかを具備することで、カーネル位置は暗黙的なメトリクスの単位球のサンプルである、という統一原理を提供する。
この新たな観点からは,信号に依存した明示的な指標から単位球を抽出し,幾何学的正則化を備えた解釈可能な演算子を提供する,計量畳み込みも提案する。
このフレームワークは勾配に基づく最適化と互換性があり、入力画像やニューラルネットワークの深い特徴に適用される既存の畳み込みを直接置き換えることができる。
メトリック畳み込みは通常、より少ないパラメータを必要とし、より良い一般化を提供する。
提案手法は,標準的な分類タスクにおける競合性能を示す。
関連論文リスト
- Scalable Graph Compressed Convolutions [68.85227170390864]
ユークリッド畳み込みのための入力グラフのキャリブレーションに置換を適用する微分可能手法を提案する。
グラフキャリブレーションに基づいて,階層型グラフ表現学習のための圧縮畳み込みネットワーク(CoCN)を提案する。
論文 参考訳(メタデータ) (2024-07-26T03:14:13Z) - A Canonicalization Perspective on Invariant and Equivariant Learning [54.44572887716977]
フレームの設計について,本質的で完全な視点を提供する正準化の視点を導入する。
フレームと標準形式の間には固有の関係があることが示される。
既存の手法よりも厳密な固有ベクトルのための新しいフレームを設計する。
論文 参考訳(メタデータ) (2024-05-28T17:22:15Z) - Soft Matching Distance: A metric on neural representations that captures
single-neuron tuning [6.5714523708869566]
ニューラル表現(dis)相似性の共通測度は、ニューラルアクティベーション空間の回転や反射に敏感であるように設計されている。
異なる大きさのネットワーク間の距離を測定するための新しい指標を提案する。
論文 参考訳(メタデータ) (2023-11-16T00:13:00Z) - Scalable Stochastic Gradient Riemannian Langevin Dynamics in Non-Diagonal Metrics [3.8811062755861956]
本稿では,2つの非対角的指標について述べる。
完全接続型ニューラルネットワーク(NN)と疎結合型プリエントと、相関したプリエントを持つ畳み込みNNでは、これらのメトリクスを用いることで改善が期待できることを示す。
論文 参考訳(メタデータ) (2023-03-09T08:20:28Z) - Frame Averaging for Equivariant Shape Space Learning [85.42901997467754]
形状空間学習に対称性を組み込む自然な方法は、形状空間(エンコーダ)への写像と形状空間(デコーダ)からの写像が関連する対称性に同値であることを問うことである。
本稿では,2つのコントリビューションを導入することで,エンコーダとデコーダの等価性を組み込む枠組みを提案する。
論文 参考訳(メタデータ) (2021-12-03T06:41:19Z) - Frame Averaging for Invariant and Equivariant Network Design [50.87023773850824]
フレーム平均化(FA)は、既知の(バックボーン)アーキテクチャを新しい対称性タイプに不変あるいは同変に適応するためのフレームワークである。
FAモデルが最大表現力を持つことを示す。
我々は,新しいユニバーサルグラフニューラルネット(GNN),ユニバーサルユークリッド運動不変点クラウドネットワーク,およびユークリッド運動不変メッセージパッシング(MP)GNNを提案する。
論文 参考訳(メタデータ) (2021-10-07T11:05:23Z) - Learning to Discover Reflection Symmetry via Polar Matching Convolution [33.77926792753373]
我々は、極性特徴プーリング、自己相似符号化、異なる角度の軸に対するカーネル設計を活用する、極性マッチング畳み込みと呼ばれる新しい畳み込み手法を導入する。
提案した高次元カーネル畳み込みネットワークは,実世界の画像から対称性パターンを効果的に発見する。
実験により,本手法は精度とロバスト性において最先端の手法より優れていることが示された。
論文 参考訳(メタデータ) (2021-08-30T01:50:51Z) - Coordinate Independent Convolutional Networks -- Isometry and Gauge
Equivariant Convolutions on Riemannian Manifolds [70.32518963244466]
平坦空間と比較して大きな複雑さは、コンボリューション核が多様体にどのようなアライメントを適用するべきかが不明確であることである。
コーディネート化の特定の選択は、ネットワークの推論に影響を与えるべきではない、と我々は主張する。
座標独立と重み共有の同時要求は、ネットワーク上の同変要求をもたらす。
論文 参考訳(メタデータ) (2021-06-10T19:54:19Z) - Gauge Equivariant Mesh CNNs: Anisotropic convolutions on geometric
graphs [81.12344211998635]
メッシュ上の畳み込みを定義する一般的なアプローチは、それらをグラフとして解釈し、グラフ畳み込みネットワーク(GCN)を適用することである。
本稿では、GCNを一般化して異方性ゲージ同変カーネルを適用するGauge Equivariant Mesh CNNを提案する。
本実験は,従来のGCNおよび他の手法と比較して,提案手法の表現性を大幅に向上することを示した。
論文 参考訳(メタデータ) (2020-03-11T17:21:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。