論文の概要: Laplacian-LoRA: Delaying Oversmoothing in Deep GCNs via Spectral Low-Rank Adaptation
- arxiv url: http://arxiv.org/abs/2602.07278v1
- Date: Sat, 07 Feb 2026 00:03:19 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-10 20:26:24.546987
- Title: Laplacian-LoRA: Delaying Oversmoothing in Deep GCNs via Spectral Low-Rank Adaptation
- Title(参考訳): Laplacian-LoRA:スペクトル低ランク適応による深部GCNの過剰スムージング遅延
- Authors: Sai Vamsi Alisetti,
- Abstract要約: 標準グラフ畳み込みネットワーク(GCN)の低ランク適応であるLaplacian-LoRAを提案する。
メッセージパッシングを再設計する代わりに、Laplacian-LoRAは学習可能でスペクトルに固定された修正を固定されたLaplacian伝搬演算子に導入する。
また,Laplacian-LoRAはGCNの有効深度を最大2倍にまで延ばし,過スムージングの開始を連続的に遅らせることを示した。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Oversmoothing is a fundamental limitation of deep graph convolutional networks (GCNs), causing node representations to collapse as depth increases. While many prior approaches mitigate this effect through architectural modifications or residual mechanisms, the underlying spectral cause of oversmoothing is often left implicit. We propose Laplacian-LoRA, a simple and interpretable low-rank spectral adaptation of standard GCNs. Rather than redesigning message passing, Laplacian-LoRA introduces a learnable, spectrally anchored correction to the fixed Laplacian propagation operator, selectively weakening contraction while preserving stability and the low-pass inductive bias. Across multiple benchmark datasets and depths, Laplacian-LoRA consistently delays the onset of oversmoothing, extending the effective depth of GCNs by up to a factor of two. Embedding variance diagnostics confirm that these gains arise from delayed representational collapse, while learned spectral analysis demonstrates that the correction is smooth, bounded, and well behaved. Our results show that oversmoothing is a depth-dependent spectral phenomenon that can be systematically delayed through modest, low-rank adaptation of the graph propagation operator.
- Abstract(参考訳): オーバースムーシングはディープグラフ畳み込みネットワーク(GCN)の基本的な制限であり、深さが増加するにつれてノード表現が崩壊する。
多くの先行的なアプローチは、アーキテクチャの変更や残留メカニズムを通じてこの効果を緩和するが、過密化の根底にあるスペクトル原因はしばしば暗黙的に残されている。
本稿では,標準GCNの簡易かつ解釈可能な低ランクスペクトル適応であるLaplacian-LoRAを提案する。
メッセージパッシングを再設計する代わりに、Laplacian-LoRAは学習可能でスペクトルに固定された補正を固定されたLaplacian伝搬演算子に導入し、安定性と低パス誘導バイアスを保ちながら、収縮を選択的に弱める。
複数のベンチマークデータセットと深さにわたって、Laplacian-LoRAは一貫してオーバースムーシングの開始を遅らせ、GCNの効果的な深さを最大2倍にまで伸ばす。
差分診断の埋め込みは、これらの利得が遅延表現の崩壊によって生じることを証明し、一方、学習されたスペクトル分析は、補正が滑らかで、有界で、よく振る舞うことを示した。
以上の結果から,グラフ伝搬演算子の低ランク適応により,過平滑化は時間依存性のスペクトル現象であることが明らかとなった。
関連論文リスト
- Spectral Gating Networks [65.9496901693099]
我々は、フィードフォワードネットワークに周波数リッチな表現性を導入するために、スペクトルゲーティングネットワーク(SGN)を導入する。
SGNは、標準活性化経路をコンパクトなスペクトル経路と学習可能なゲートで拡張し、安定したベース動作からモデルを開始することができる。
計算予算に匹敵する精度と効率のトレードオフを継続的に改善する。
論文 参考訳(メタデータ) (2026-02-07T20:00:49Z) - Spectral Evolution Search: Efficient Inference-Time Scaling for Reward-Aligned Image Generation [45.717539734334906]
推論時間スケーリングは、パラメータ更新なしで、ビジュアル生成モデルを下流の目的と整列するための多用途パラダイムを提供する。
本稿では,高次元初期雑音を最適化する既存の手法は,探索方向が最終世代に無視できない影響を及ぼすため,非効率性に悩まされていることを示す。
低周波部分空間内で勾配のない進化探索を行うための初期雑音最適化のためのプラグアンドプレイフレームワークであるスペクトル進化探索(SES)を提案する。
論文 参考訳(メタデータ) (2026-02-03T07:19:39Z) - Spectral Gradient Descent Mitigates Anisotropy-Driven Misalignment: A Case Study in Phase Retrieval [13.218607858857295]
スペクトル勾配法は、スケールを捨てながら方向情報を保存することによって勾配の更新を変更する。
非線形位相探索モデルの動的解析により,これらの利得のメカニズムを解明する。
論文 参考訳(メタデータ) (2026-01-30T07:12:58Z) - The Homogeneity Trap: Spectral Collapse in Doubly-Stochastic Deep Networks [1.7523718031184992]
構造保存深層構造に固有の臨界スペクトル劣化現象を同定する。
最大エントロピーバイアスは混合作用素を均一なバリセンターへ誘導し、従属特異値 を抑えることを示す。
ネットワークの有効深度にリンクするスペクトル境界を導出し、高エントロピー制約が浅層受容場への特徴変換を制限することを示す。
論文 参考訳(メタデータ) (2026-01-05T13:09:42Z) - Frequency Regularization: Unveiling the Spectral Inductive Bias of Deep Neural Networks [21.749207209704906]
現代畳み込みニューラルネットワーク(CNN)のスペクトルバイアスについて検討する。
トレーニング中のウェイト周波数の動的変化を追跡するためのビジュアル診断フレームワークを提案する。
本稿では,レギュレータの「低域フィルタリング」強度を定量化するために,スペクトル抑圧比 (SSR) を提案する。
論文 参考訳(メタデータ) (2025-12-20T11:33:32Z) - SpectrumFM: Redefining Spectrum Cognition via Foundation Modeling [65.65474629224558]
本稿ではスペクトル認識のための新しいパラダイムを提供するスペクトルFMと呼ばれるスペクトル基盤モデルを提案する。
畳み込みニューラルネットワークを利用した革新的なスペクトルエンコーダを提案し、スペクトルデータにおける微細な局所信号構造と高レベルのグローバルな依存関係の両方を効果的に捕捉する。
2つの新しい自己教師型学習タスク、すなわちマスク付き再構成と次のスロット信号予測が、SpectrumFMの事前学習のために開発され、モデルがリッチで伝達可能な表現を学習できるようにする。
論文 参考訳(メタデータ) (2025-08-02T14:40:50Z) - Towards Anomaly-Aware Pre-Training and Fine-Tuning for Graph Anomaly Detection [59.042018542376596]
グラフ異常検出(GAD)は近年注目度が高まりつつあるが、2つの重要な要因があるため、依然として困難である。
Anomaly-Aware Pre-Training and Fine-Tuning (APF)は、GADの課題を軽減するためのフレームワークである。
10のベンチマークデータセットに関する総合的な実験は、最先端のベースラインと比較してAPFの優れたパフォーマンスを検証する。
論文 参考訳(メタデータ) (2025-04-19T09:57:35Z) - Spectral-Spatial Extraction through Layered Tensor Decomposition for Hyperspectral Anomaly Detection [6.292153194561472]
低位テンソル表現(LRTR)法は高スペクトル異常検出(HAD)に非常に有用である
まず、非負行列分解(NMF)を用いてスペクトル次元の冗長性を緩和し、スペクトル異常を抽出する。
次に, LRTRを用いて空間冗長性を緩和しながら空間異常を抽出し, HADのための高効率なテンソル分解機構を得る。
Airport-Beach-Urban と MVTec のデータセットによる実験結果から,HAD タスクの最先端手法よりも優れた結果が得られた。
論文 参考訳(メタデータ) (2025-03-07T07:08:14Z) - Convergence of mean-field Langevin dynamics: Time and space
discretization, stochastic gradient, and variance reduction [49.66486092259376]
平均場ランゲヴィンダイナミクス(英: mean-field Langevin dynamics、MFLD)は、分布依存のドリフトを含むランゲヴィン力学の非線形一般化である。
近年の研究では、MFLDは測度空間で機能するエントロピー規則化された凸関数を地球規模で最小化することが示されている。
有限粒子近似,時間分散,勾配近似による誤差を考慮し,MFLDのカオスの均一時間伝播を示す枠組みを提供する。
論文 参考訳(メタデータ) (2023-06-12T16:28:11Z) - Momentum Diminishes the Effect of Spectral Bias in Physics-Informed
Neural Networks [72.09574528342732]
物理インフォームドニューラルネットワーク(PINN)アルゴリズムは、偏微分方程式(PDE)を含む幅広い問題を解く上で有望な結果を示している。
彼らはしばしば、スペクトルバイアスと呼ばれる現象のために、ターゲット関数が高周波の特徴を含むとき、望ましい解に収束しない。
本研究は, 運動量による勾配降下下で進化するPINNのトレーニングダイナミクスを, NTK(Neural Tangent kernel)を用いて研究するものである。
論文 参考訳(メタデータ) (2022-06-29T19:03:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。