論文の概要: Wavelet Logic Machines: Learning and Reasoning in the Spectral Domain Without Neural Networks
- arxiv url: http://arxiv.org/abs/2507.19514v1
- Date: Fri, 18 Jul 2025 01:28:17 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-03 20:19:02.835792
- Title: Wavelet Logic Machines: Learning and Reasoning in the Spectral Domain Without Neural Networks
- Title(参考訳): ウェーブレット論理マシン:ニューラルネットワークのないスペクトル領域における学習と推論
- Authors: Andrew Kiruluta,
- Abstract要約: ウェーブレット領域を完全に操作することで、従来のニューラルネットワーク層を除去する、完全なスペクトル学習フレームワークを導入する。
このモデルは、ウェーブレット係数に直接、ソフトスレッディングやゲイン位相変調を含む学習可能な非線形変換を適用する。
それはまた、Haar、Daubechies、Biorthogonal Waveletなどのファミリーを使った適応処理を可能にする、微分可能なウェーブレット基底選択機構を含んでいる。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We introduce a fully spectral learning framework that eliminates traditional neural layers by operating entirely in the wavelet domain. The model applies learnable nonlinear transformations, including soft-thresholding and gain-phase modulation, directly to wavelet coefficients. It also includes a differentiable wavelet basis selection mechanism, enabling adaptive processing using families such as Haar, Daubechies, and Biorthogonal wavelets. Implemented in PyTorch with full 3D support, the model maintains a spectral pipeline without spatial convolutions or attention. On synthetic 3D denoising and natural language tasks from the GLUE benchmark, including SST-2 sentiment classification, the model achieves 89.3 percent accuracy, close to a 4-layer Transformer baseline (90.1 percent), while using 72 percent fewer parameters and 58 percent less peak memory. Faster early convergence is observed due to spectral sparsity priors. In contrast to the quadratic complexity of self-attention and large matrix multiplications in Transformers, our approach uses linear-time wavelet transforms and pointwise nonlinearities, significantly reducing inference cost. This yields a compact, interpretable, and efficient alternative to neural models. Our results support the viability of principled spectral learning in both vision and language tasks, offering new directions for model design without overparameterized architectures.
- Abstract(参考訳): ウェーブレット領域を完全に操作することで、従来のニューラルネットワーク層を除去する、完全なスペクトル学習フレームワークを導入する。
このモデルは、ウェーブレット係数に直接、ソフトスレッディングやゲイン位相変調を含む学習可能な非線形変換を適用する。
それはまた、Haar、Daubechies、Biorthogonal Waveletなどのファミリーを使った適応処理を可能にする、微分可能なウェーブレット基底選択機構を含んでいる。
完全な3Dサポートを備えたPyTorchで実装されたこのモデルは、空間的な畳み込みや注意を払わずにスペクトルパイプラインを維持する。
SST-2の感情分類を含むGLUEベンチマークの3D合成と自然言語タスクにおいて、モデルは89.3%の精度を達成し、4層トランスフォーマーベースライン(90.1%)に近づき、パラメータは72%減少し、ピークメモリは58%減少した。
スペクトルの発散による早期収束の早さが観察される。
変換器における自己アテンションと大規模行列乗算の2次複雑性とは対照的に,線形時間ウェーブレット変換と点次非線形性を用い,推論コストを大幅に削減する。
これにより、コンパクトで解釈可能で効率的なニューラルモデルへの代替となる。
本研究は,視覚と言語の両方のタスクにおけるスペクトル学習の原理の実現性をサポートし,過パラメータ化アーキテクチャを伴わないモデル設計のための新たな方向性を提供する。
関連論文リスト
- A Stable Whitening Optimizer for Efficient Neural Network Training [101.89246340672246]
アルゴリズムのシャンプー系をベースとして,3つの重要な問題を同定・緩和し,SPlus法を提案する。
まず,行列逆が長期にわたってキャッシュされる場合,素早いシャンプーは分岐しがちであることがわかった。
第二に、ネットワーク幅をまたいで学習率の伝達を可能にするために、形状認識スケーリングを適用する。
第3に,高い学習率によってパラメータノイズが大きくなり,より高速な学習をブロックする簡単な反復学習方式を提案する。
論文 参考訳(メタデータ) (2025-06-08T18:43:31Z) - 3D Wavelet Convolutions with Extended Receptive Fields for Hyperspectral Image Classification [12.168520751389622]
ディープニューラルネットワークは、ハイパースペクトル画像分類において多くの課題に直面している。
本稿ではウェーブレット変換と統合された改良型3D-DenseNetモデルWCNetを提案する。
実験結果から,IN,UP,KSCデータセットにおいて優れた性能を示した。
論文 参考訳(メタデータ) (2025-04-15T01:39:42Z) - LOGLO-FNO: Efficient Learning of Local and Global Features in Fourier Neural Operators [20.77877474840923]
高周波情報は機械学習における重要な課題である。
ディープニューラルネットワークは、低周波成分の学習に対するいわゆるスペクトルバイアスを示す。
放射結合スペクトル誤差に基づく新しい周波数感受性損失項を提案する。
論文 参考訳(メタデータ) (2025-04-05T19:35:04Z) - WaveFormer: A 3D Transformer with Wavelet-Driven Feature Representation for Efficient Medical Image Segmentation [0.5312470855079862]
医用画像用3D変換器のWaveFormerについて紹介する。
それは人間の視覚認識システムのトップダウンメカニズムにインスパイアされている。
グローバルコンテキストと高周波の詳細の両方を保存し、重いサンプリング層を効率的なウェーブレットベースの要約と再構成に置き換える。
論文 参考訳(メタデータ) (2025-03-31T06:28:41Z) - Point Cloud Denoising With Fine-Granularity Dynamic Graph Convolutional Networks [58.050130177241186]
ノイズの摂動は、しばしば3次元の点雲を破損させ、表面の再構成、レンダリング、さらなる処理といった下流のタスクを妨げる。
本稿では,GDGCNと呼ばれる粒度動的グラフ畳み込みネットワークについて紹介する。
論文 参考訳(メタデータ) (2024-11-21T14:19:32Z) - Geometric Algebra Planes: Convex Implicit Neural Volumes [70.12234371845445]
GA-Planes はスパース低ランク係数と低分解能行列と等価であることを示す。
また,GA-Planeは既存の表現にも適用可能であることを示す。
論文 参考訳(メタデータ) (2024-11-20T18:21:58Z) - CVT-xRF: Contrastive In-Voxel Transformer for 3D Consistent Radiance Fields from Sparse Inputs [65.80187860906115]
スパース入力によるNeRFの性能向上のための新しい手法を提案する。
まず, サンプル線が, 3次元空間内の特定のボクセルと交差することを保証するために, ボクセルを用いた放射線サンプリング戦略を採用する。
次に、ボクセル内の追加点をランダムにサンプリングし、トランスフォーマーを適用して各線上の他の点の特性を推測し、ボリュームレンダリングに組み込む。
論文 参考訳(メタデータ) (2024-03-25T15:56:17Z) - Deep Spectral Meshes: Multi-Frequency Facial Mesh Processing with Graph
Neural Networks [1.170907599257096]
メッシュ変形を低周波・高周波変形に分解する手法として,スペクトルメッシュを導入した。
提案フレームワーク上に3次元顔メッシュ合成のためのパラメトリックモデルを構築した。
このモデルでは、異なる周波数レベルを異なる、より適切な表現で表現することで、スペクトル分割をさらに活用する。
論文 参考訳(メタデータ) (2024-02-15T23:17:08Z) - Transform Once: Efficient Operator Learning in Frequency Domain [69.74509540521397]
本研究では、周波数領域の構造を利用して、空間や時間における長距離相関を効率的に学習するために設計されたディープニューラルネットワークについて検討する。
この研究は、単一変換による周波数領域学習のための青写真を導入している。
論文 参考訳(メタデータ) (2022-11-26T01:56:05Z) - FAMLP: A Frequency-Aware MLP-Like Architecture For Domain Generalization [73.41395947275473]
本稿では、変換周波数領域において、ドメイン固有の特徴をフィルタリングする新しい周波数認識アーキテクチャを提案する。
3つのベンチマークの実験では、最先端の手法をそれぞれ3%、4%、9%のマージンで上回った。
論文 参考訳(メタデータ) (2022-03-24T07:26:29Z) - High-Fidelity and Low-Latency Universal Neural Vocoder based on
Multiband WaveRNN with Data-Driven Linear Prediction for Discrete Waveform
Modeling [38.828260316517536]
本稿では、離散波形モデリング(MWDLP)のためのデータ駆動線形予測を用いたマルチバンドWaveRNNに基づく新しいユニバーサルニューラルネットワークボコーダフレームワークを提案する。
提案したMWDLPフレームワークは、クリーンでノイズの多い残響条件を含む300人の話者のトレーニングデータに対して、見知らぬ話者や/または言語に対して高忠実な合成音声を生成することを示す。
論文 参考訳(メタデータ) (2021-05-20T16:02:45Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。