論文の概要: Variational Kernel Design for Internal Noise: Gaussian Chaos Noise, Representation Compatibility, and Reliable Deep Learning
- arxiv url: http://arxiv.org/abs/2603.17365v1
- Date: Wed, 18 Mar 2026 05:12:56 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-19 18:32:57.517639
- Title: Variational Kernel Design for Internal Noise: Gaussian Chaos Noise, Representation Compatibility, and Reliable Deep Learning
- Title(参考訳): 内部雑音に対する変分カーネル設計:ガウスカオスノイズ、表現適合性、信頼性のある深層学習
- Authors: Ziran Liu,
- Abstract要約: ディープネットワークの内部ノイズは通常、ドロップアウト、ハードマスキング、加法摂動などの摂動から受け継がれる。
内部ノイズはどのような相関幾何学を持つべきで、実装された摂動はそれらが作用する表現と互換性があるのか?
本稿では,法則ファミリ,相関カーネル,インジェクション演算子によってノイズ機構が特定され,デシダラタの学習から導出されるフレームワークである変分カーネル設計(VKD)を通じて,これらの疑問に答える。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Internal noise in deep networks is usually inherited from heuristics such as dropout, hard masking, or additive perturbation. We ask two questions: what correlation geometry should internal noise have, and is the implemented perturbation compatible with the representations it acts on? We answer these questions through Variational Kernel Design (VKD), a framework in which a noise mechanism is specified by a law family, a correlation kernel, and an injection operator, and is derived from learning desiderata. In a solved spatial subfamily, a quadratic maximum-entropy principle over latent log-fields yields a Gaussian optimizer with precision given by the Dirichlet Laplacian, so the induced geometry is the Dirichlet Green kernel. Wick normalization then gives a canonical positive mean-one gate, Gaussian Chaos Noise (GCh). For the sample-wise gate used in practice, we prove exact Gaussian control of pairwise log-ratio deformation, margin-sensitive ranking stability, and an exact expected intrinsic roughness budget; hard binary masks instead induce singular or coherence-amplified distortions on positive coherent representations. On ImageNet and ImageNet-C, GCh consistently improves calibration and under shift also improves NLL at competitive accuracy.
- Abstract(参考訳): ディープネットワークの内部ノイズは通常、ドロップアウト、ハードマスク、加法摂動といったヒューリスティックから受け継がれている。
内部ノイズはどのような相関幾何学を持つべきで、実装された摂動はそれらが作用する表現と互換性があるのか?
本稿では,法則ファミリ,相関カーネル,インジェクション演算子によってノイズ機構が特定され,デシダラタの学習から導出されるフレームワークである変分カーネル設計(VKD)を通じて,これらの疑問に答える。
解決された空間部分群において、潜在対数体上の2次最大エントロピー原理は、ディリクレ・ラプラシアンによって与えられる精度の高いガウス最適化子を与えるので、誘導幾何学はディリクレ・グリーン核である。
ウィック正規化は正正平均1ゲート、ガウスカオスノイズ(GCh)を与える。
実例では,正のコヒーレント表現に対する特異あるいはコヒーレンス増幅歪みを誘導し,対対数比変形,利得感性ランキング安定性,および真に期待される内在性粗さ予算のガウス的制御を正確に証明する。
ImageNetとImageNet-Cでは、GChはキャリブレーションを一貫して改善し、シフト中はNLLを競合精度で改善する。
関連論文リスト
- Stability and Generalization of Push-Sum Based Decentralized Optimization over Directed Graphs [55.77845440440496]
プッシュベースの分散通信は、情報交換が非対称である可能性のある通信ネットワークの最適化を可能にする。
我々は、グラディエント・プッシュ(SGP)アルゴリズムのための統一的な一様安定性フレームワークを開発する。
重要な技術的要素は、2つの量に束縛された不均衡認識の一般化である。
論文 参考訳(メタデータ) (2026-02-24T05:32:03Z) - Generalizing GNNs with Tokenized Mixture of Experts [75.8310720413187]
安定性の向上には,変化に敏感な特徴への依存を低減し,既約最悪の一般化フロアを残す必要があることを示す。
本研究では,STEM-GNNを提案する。STEM-GNN,STEM-GNN,STEM-GNN,STEM-GNN,STEM-GNN,STEM-GNN,STEM-GNN,STEM-GNN,STEM-GNN。
9つのノード、リンク、グラフのベンチマークで、STEM-GNNはより強力な3方向バランスを実現し、クリアグラフ上での競争力を維持しながら、次数/ホモフィリーシフトや特徴/エッジの破損に対する堅牢性を改善している。
論文 参考訳(メタデータ) (2026-02-09T22:48:30Z) - Kernelized Decoded Quantum Interferometry [0.0]
我々は、スペクトル工学を直接量子回路アーキテクチャに統合する統合フレームワーク、textbf Kernelized Decoded Quantum Interferometry (k-DQI)を紹介した。
我々はtextbfMonotonic Improvement Theorem を証明し、$_K$を最大化することで、局所的な分極雑音下での復号の成功率の向上が保証されることを示す。
論文 参考訳(メタデータ) (2025-11-25T07:35:03Z) - Mitigating the Noise Shift for Denoising Generative Models via Noise Awareness Guidance [54.88271057438763]
ノイズアウェアネスガイダンス (NAG) は、事前に定義された騒音スケジュールと整合性を保つために、サンプリング軌道を明示的に制御する補正手法である。
NAGは一貫してノイズシフトを緩和し、主流拡散モデルの生成品質を大幅に改善する。
論文 参考訳(メタデータ) (2025-10-14T13:31:34Z) - Towards Robust Image Denoising with Scale Equivariance [10.894808298340994]
我々は,空間的一様雑音のトレーニングから,空間的非一様劣化の推論まで,モデルがより適応できるようになることを論じる。
本稿では,HNM (Heterogeneous Normalization Module) とIGM (Interactive Gating Module) の2つの主要コンポーネントを備える頑健なブラインド認知フレームワークを提案する。
論文 参考訳(メタデータ) (2025-08-05T00:06:28Z) - Precise Bayesian Neural Networks [0.0]
我々は,現代的な正規化アーキテクチャに適合し,精度を犠牲にすることなくキャリブレーションを改善する軽量で実装可能な変分ユニットを開発した。
簡単に言えば、変分後部をネットワーク固有の幾何学と整合させることで、BNNは同時に原理化され、実用的で、正確である。
論文 参考訳(メタデータ) (2025-06-24T15:42:00Z) - Scalable Variational Gaussian Processes via Harmonic Kernel
Decomposition [54.07797071198249]
汎用性を維持しつつ高い忠実度近似を提供する,スケーラブルな変分ガウス過程近似を導入する。
様々な回帰問題や分類問題において,本手法は変換やリフレクションなどの入力空間対称性を活用できることを実証する。
提案手法は, 純粋なGPモデルのうち, CIFAR-10 の最先端化を実現する。
論文 参考訳(メタデータ) (2021-06-10T18:17:57Z) - Asymmetric Heavy Tails and Implicit Bias in Gaussian Noise Injections [73.95786440318369]
我々は、勾配降下(SGD)のダイナミクスに対する注射ノイズの影響であるGNIsのいわゆる暗黙効果に焦点を当てています。
この効果は勾配更新に非対称な重尾ノイズを誘発することを示す。
そして、GNIが暗黙のバイアスを引き起こすことを正式に証明し、これは尾の重みと非対称性のレベルによって異なる。
論文 参考訳(メタデータ) (2021-02-13T21:28:09Z) - Continuous-variable error correction for general Gaussian noises [5.372221197181905]
誤り訂正後のノイズ標準偏差の効率的な計算を可能にするための理論フレームワークを開発する。
我々のコードは、モード数に応じて残差ノイズ標準偏差を最適にスケーリングする。
論文 参考訳(メタデータ) (2021-01-06T23:28:01Z) - Shape Matters: Understanding the Implicit Bias of the Noise Covariance [76.54300276636982]
勾配降下のノイズはパラメータ化モデルに対するトレーニングにおいて重要な暗黙の正則化効果をもたらす。
ミニバッチやラベルの摂動によって引き起こされるパラメータ依存ノイズはガウスノイズよりもはるかに効果的であることを示す。
分析の結果,パラメータ依存ノイズは局所最小値に偏りを生じさせるが,球状ガウス雑音は生じないことがわかった。
論文 参考訳(メタデータ) (2020-06-15T18:31:02Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。