論文の概要: Optimal Density Functions for Weighted Convolution in Learning Models
- arxiv url: http://arxiv.org/abs/2505.24527v1
- Date: Fri, 30 May 2025 12:36:36 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-02 19:47:52.945556
- Title: Optimal Density Functions for Weighted Convolution in Learning Models
- Title(参考訳): 学習モデルにおける重み付き畳み込みのための最適密度関数
- Authors: Simone Cammarasana, Giuseppe Patanè,
- Abstract要約: 本稿では、正規格子上で定義された信号の畳み込みに対する新しいアプローチである重み付き畳み込みについて紹介する。
重み付き畳み込みは畳み込みニューラルネットワーク問題に適用でき、近似精度を向上させることができる。
今後の研究は、重み付き畳み込みを実例2Dおよび3D画像畳み込み学習問題に適用する予定である。
- 参考スコア(独自算出の注目度): 6.6942213231641805
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The paper introduces the weighted convolution, a novel approach to the convolution for signals defined on regular grids (e.g., 2D images) through the application of an optimal density function to scale the contribution of neighbouring pixels based on their distance from the central pixel. This choice differs from the traditional uniform convolution, which treats all neighbouring pixels equally. Our weighted convolution can be applied to convolutional neural network problems to improve the approximation accuracy. Given a convolutional network, we define a framework to compute the optimal density function through a minimisation model. The framework separates the optimisation of the convolutional kernel weights (using stochastic gradient descent) from the optimisation of the density function (using DIRECT-L). Experimental results on a learning model for an image-to-image task (e.g., image denoising) show that the weighted convolution significantly reduces the loss (up to 53% improvement) and increases the test accuracy compared to standard convolution. While this method increases execution time by 11%, it is robust across several hyperparameters of the learning model. Future work will apply the weighted convolution to real-case 2D and 3D image convolutional learning problems.
- Abstract(参考訳): 重み付き畳み込み(重み付き畳み込み)は, 正格子上に定義された信号(例えば2次元画像)の畳み込みに対して, 中心画素からの距離に基づいて, 隣接する画素の寄与を拡大する最適密度関数を適用して, 新たな畳み込み法を提案する。
この選択は、近隣のすべてのピクセルを等しく扱う伝統的な均一な畳み込みとは異なる。
我々の重み付け畳み込みは、近似精度を向上させるために畳み込みニューラルネットワーク問題に適用できる。
畳み込みネットワークが与えられた場合、最小化モデルを用いて最適な密度関数を計算するためのフレームワークを定義する。
この枠組みは、畳み込み核重みの最適化(確率勾配勾配を用いた)と密度関数の最適化(DIRECT-Lを用いた)を分離する。
イメージ・ツー・イメージ・タスクの学習モデル(例えば、画像デノーミング)の実験結果から、重み付き畳み込みは損失を著しく減少させ(最大53%の改善)、標準畳み込みよりもテスト精度を向上させることが示された。
この手法は実行時間を11%向上させるが、学習モデルの複数のハイパーパラメータに対して堅牢である。
今後の研究は、重み付き畳み込みを実例2Dおよび3D画像畳み込み学習問題に適用する予定である。
関連論文リスト
- Optimal Weighted Convolution for Classification and Denosing [6.6942213231641805]
従来の畳み込みニューラルネットワーク(CNN)を強化する新しい重み付き畳み込み演算子を導入する。
この拡張により、ネットワークは基準画素に対する相対位置に基づいて隣接画素を微分重み付けすることができる。
2次元画像データのために開発されたが、任意の次元の正規格子上の信号に一般化可能である。
論文 参考訳(メタデータ) (2025-05-30T13:10:46Z) - Geometric Algebra Planes: Convex Implicit Neural Volumes [70.12234371845445]
GA-Planes はスパース低ランク係数と低分解能行列と等価であることを示す。
また,GA-Planeは既存の表現にも適用可能であることを示す。
論文 参考訳(メタデータ) (2024-11-20T18:21:58Z) - Spatially Optimized Compact Deep Metric Learning Model for Similarity Search [1.0015171648915433]
類似性探索は空間的特徴が重要な出力を決定する重要なタスクである。
本研究では,コンパクトな畳み込みモデルとともに単一の畳み込み特徴抽出器の層を利用することにより,類似性探索の性能が著しく向上することを示す。
論文 参考訳(メタデータ) (2024-04-09T19:49:01Z) - LDConv: Linear deformable convolution for improving convolutional neural networks [18.814748446649627]
Linear Deformable Convolution (LDConv) は、ネットワーク性能を改善するために畳み込み操作を置き換えることができる、プラグアンドプレイの畳み込み操作である。
LDConvは、標準畳み込みと変形可能なConvのパラメータ数の成長傾向を線形成長に補正する。
論文 参考訳(メタデータ) (2023-11-20T07:54:54Z) - Self-Supervised Single-Image Deconvolution with Siamese Neural Networks [6.138671548064356]
画像再構成における逆問題は、未知のノイズ特性によって根本的に複雑である。
ディープラーニングの手法は、ノイズのフレキシブルなパラメトリゼーションを可能にし、データから直接その特性を学習する。
我々は3次元デコンボリューションタスクにおけるトレーニング速度アップを提供する高速フーリエ変換畳み込み問題に対処する。
論文 参考訳(メタデータ) (2023-08-18T09:51:11Z) - IKOL: Inverse kinematics optimization layer for 3D human pose and shape
estimation via Gauss-Newton differentiation [44.00115413716392]
本稿では3次元ポーズ形状推定のための逆運動層(IKOL)を提案する。
IKOLは、既存の回帰ベースのメソッドよりもはるかに多い。
より正確な3Dポーズ推定を提供する。
論文 参考訳(メタデータ) (2023-02-02T12:43:29Z) - Scaling Structured Inference with Randomization [64.18063627155128]
本稿では、構造化されたモデルを数万の潜在状態に拡張するためにランダム化された動的プログラミング(RDP)のファミリを提案する。
我々の手法は古典的DPベースの推論に広く適用できる。
また、自動微分とも互換性があり、ニューラルネットワークとシームレスに統合できる。
論文 参考訳(メタデータ) (2021-12-07T11:26:41Z) - Content-Aware Convolutional Neural Networks [98.97634685964819]
畳み込みニューラルネットワーク(CNN)は、畳み込み層の強力な特徴学習能力によって大きな成功を収めている。
本研究では,スムーズなウィンドウを自動的に検出し,元の大規模カーネルを置き換えるために1x1畳み込みカーネルを適用するContent-aware Convolution (CAC)を提案する。
論文 参考訳(メタデータ) (2021-06-30T03:54:35Z) - Human Body Model Fitting by Learned Gradient Descent [48.79414884222403]
画像に3次元の人体形状を適合させる新しいアルゴリズムを提案する。
このアルゴリズムは高速(約120ms収束)で、データセットに頑健であり、公開評価データセットの最先端結果が得られることを示す。
論文 参考訳(メタデータ) (2020-08-19T14:26:47Z) - Locally Masked Convolution for Autoregressive Models [107.4635841204146]
LMConvは標準的な2Dコンボリューションの簡単な修正であり、任意のマスクを画像の各位置の重みに適用することができる。
我々は,パラメータを共有するが生成順序が異なる分布推定器のアンサンブルを学習し,全画像密度推定の性能を向上させる。
論文 参考訳(メタデータ) (2020-06-22T17:59:07Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。