論文の概要: Beyond Convolution: A Taxonomy of Structured Operators for Learning-Based Image Processing
- arxiv url: http://arxiv.org/abs/2603.12067v1
- Date: Thu, 12 Mar 2026 15:35:15 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-13 14:46:26.188659
- Title: Beyond Convolution: A Taxonomy of Structured Operators for Learning-Based Image Processing
- Title(参考訳): 畳み込みを超えて:学習に基づく画像処理のための構造化演算子の分類
- Authors: Simone Cammarasana,
- Abstract要約: 本稿では,学習に基づく画像処理パイプラインにおける標準的な畳み込みを拡張し,置き換える演算子の系統分類について述べる。
各族に対して、形式的定義、畳み込みに関する構造的特性に関する議論、および作用素が最も適しているタスクの批判的分析を提供する。
- 参考スコア(独自算出の注目度): 3.934224774675743
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The convolution operator is the fundamental building block of modern convolutional neural networks (CNNs), owing to its simplicity, translational equivariance, and efficient implementation. However, its structure as a fixed, linear, locally-averaging operator limits its ability to capture structured signal properties such as low-rank decompositions, adaptive basis representations, and non-uniform spatial dependencies. This paper presents a systematic taxonomy of operators that extend or replace the standard convolution in learning-based image processing pipelines. We organise the landscape of alternative operators into five families: (i) decomposition-based operators, which separate structural and noise components through singular value or tensor decompositions; (ii) adaptive weighted operators, which modulate kernel contributions as a function of spatial position or signal content; (iii) basis-adaptive operators, which optimise the analysis bases together with the network weights; (iv) integral and kernel operators, which generalise the convolution to position-dependent and non-linear kernels; and (v) attention-based operators, which relax the locality assumption entirely. For each family, we provide a formal definition, a discussion of its structural properties with respect to the convolution, and a critical analysis of the tasks for which the operator is most appropriate. We further provide a comparative analysis of all families across relevant dimensions -- linearity, locality, equivariance, computational cost, and suitability for image-to-image and image-to-label tasks -- and outline the open challenges and future directions of this research area.
- Abstract(参考訳): 畳み込み演算子は、その単純さ、翻訳等価性、効率的な実装により、現代の畳み込みニューラルネットワーク(CNN)の基本的な構成要素である。
しかし、その構造は、線形で局所的な演算子として、低ランク分解、適応基底表現、非一様空間依存などの構造的信号特性を捕捉する能力を制限する。
本稿では,学習に基づく画像処理パイプラインにおける標準的な畳み込みを拡張し,置き換える演算子の系統分類について述べる。
我々は、代替事業者の風景を5つのファミリーに整理する。
一 特異値又はテンソル分解により構造成分及び騒音成分を分離する分解基演算子
二 空間的位置又は信号内容の関数としてカーネルの寄与を調節する適応重み付き演算子
三 ネットワーク重みとともに解析基準を最適化する基本適応演算子
(iv) 位置依存および非線形カーネルへの畳み込みを一般化する積分およびカーネル演算子、及び
(v) 注意に基づく作用素は局所性仮定を完全に緩和する。
各族に対して、形式的定義、畳み込みに関する構造的特性に関する議論、および作用素が最も適しているタスクの批判的分析を提供する。
さらに、線形性、局所性、等分散性、計算コスト、イメージ・ツー・イメージ・トゥ・ラベル・タスクに対する適合性など、関連する分野のすべてのファミリーの比較分析を行い、この研究領域のオープンな課題と今後の方向性について概説する。
関連論文リスト
- RKHS Representation of Algebraic Convolutional Filters with Integral Operators [111.57971404925486]
本稿では、積分作用素の範囲が自然にRKHS畳み込み信号モデルを誘導することを示す理論を開発する。
積分作用素によるフィルタリングは反復箱積に対応し、ユニタリカーネル代数が生じることを示す。
本研究は, グラノン信号処理における固有分解とRKHS表現の正確な関係を確立し, 自然に有向グラノンに拡張し, 空間スペクトルの新たな局在化を可能とした。
論文 参考訳(メタデータ) (2026-02-22T08:28:34Z) - The Coverage Principle: A Framework for Understanding Compositional Generalization [31.762330857169914]
合成タスクのパターンマッチングに主に依存するモデルは、同じコンテキストで使用した場合に同じ結果が得られるフラグメントを置換する以外には、確実に一般化できないことを示す。
我々は,このフレームワークがトランスフォーマーの一般化能力に強い予測力を持つことを実証した。
論文 参考訳(メタデータ) (2025-05-26T17:55:15Z) - Learning dynamically inspired invariant subspaces for Koopman and transfer operator approximation [0.0]
我々は一般作用素と表現学習を用いて転移とクープマン作用素を近似する。
具体的には、システムに動的に適合する機械学習正則基底関数について述べる。
本稿では,推定演算子からスペクトル特性を抽出した例を紹介する。
論文 参考訳(メタデータ) (2025-05-08T09:32:39Z) - Partial Transportability for Domain Generalization [56.37032680901525]
本稿では, 部分的同定と輸送可能性の理論に基づいて, 対象分布の関数値の有界化に関する新たな結果を紹介する。
我々の貢献は、輸送可能性問題に対する最初の一般的な評価手法を提供することである。
本稿では,スケーラブルな推論を実現するための勾配に基づく最適化手法を提案する。
論文 参考訳(メタデータ) (2025-03-30T22:06:37Z) - Mathematical Foundation of Interpretable Equivariant Surrogate Models [4.433915375867081]
本稿では,ニューラルネットワークの説明可能性に関する厳密な数学的枠組みを紹介する。
中心的な概念は、特定の図形の非可換性を測定することによってGEO間の距離を定量化することである。
畳み込みニューラルネットワークを用いた画像分類のような、古典的な機械学習シナリオにどのように適用できるかを示す。
論文 参考訳(メタデータ) (2025-03-03T15:06:43Z) - Stable Nonconvex-Nonconcave Training via Linear Interpolation [51.668052890249726]
本稿では,ニューラルネットワークトレーニングを安定化(大規模)するための原理的手法として,線形アヘッドの理論解析を提案する。
最適化過程の不安定性は、しばしば損失ランドスケープの非単調性によって引き起こされるものであり、非拡張作用素の理論を活用することによって線型性がいかに役立つかを示す。
論文 参考訳(メタデータ) (2023-10-20T12:45:12Z) - Tuning the Geometry of Graph Neural Networks [0.7614628596146599]
空間グラフ畳み込み演算子はグラフニューラルネットワーク(GNN)の成功の鍵として認識されている
このアグリゲーション作用素は実際にチューナブルであり、作用素の特定の選択 -- 従って、ジオメトリを埋め込む -- がより適切であるような明示的なレギュレーションであることが示される。
論文 参考訳(メタデータ) (2022-07-12T23:28:03Z) - X-volution: On the unification of convolution and self-attention [52.80459687846842]
本稿では,畳み込み操作と自己注意操作の両方からなるマルチブランチ基本モジュールを提案する。
提案したX-進化は、非常に競争力のある視覚的理解の改善を実現する。
論文 参考訳(メタデータ) (2021-06-04T04:32:02Z) - A Trainable Optimal Transport Embedding for Feature Aggregation and its
Relationship to Attention [96.77554122595578]
固定サイズのパラメータ化表現を導入し、与えられた入力セットから、そのセットとトレーニング可能な参照の間の最適な輸送計画に従って要素を埋め込み、集約する。
我々のアプローチは大規模なデータセットにスケールし、参照のエンドツーエンドのトレーニングを可能にすると同時に、計算コストの少ない単純な教師なし学習メカニズムも提供する。
論文 参考訳(メタデータ) (2020-06-22T08:35:58Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。