論文の概要: The relative importance of being Gaussian
- arxiv url: http://arxiv.org/abs/2507.08059v1
- Date: Thu, 10 Jul 2025 14:51:39 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-14 18:03:54.128047
- Title: The relative importance of being Gaussian
- Title(参考訳): ガウス的であることの相対的重要性
- Authors: F. Alberto Grünbaum, Tondgi Xu,
- Abstract要約: ガウスの場合とは全く異なる性質のノイズを用いてアルゴリズムの性能について検討する。
実験はすべて小さなラップトップと最小の画像サイズで行われます。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/publicdomain/zero/1.0/
- Abstract: The remarkable results for denoising in computer vision using diffusion models given in \cite{SDWMG,HJA,HHG} yield a robust mathematical justification for algorithms based on crucial properties of a sequence of Gaussian independent $N(0,1)$ random variables. In particular the derivations use the fact that a Gaussian distribution is determined by its mean and variance and that the sum of two Gaussians is another Gaussian. \bigskip The issue raised in this short note is the following: suppose we use the algorithm without any changes but replace the nature of the noise and use, for instance, uniformly distributed noise or noise with a Beta distribution, or noise which is a random superposition of two Gaussians with very different variances. One could, of course, try to modify the algorithm keeping in mind the nature of the noise, but this is not what we do. Instead we study the performance of the algorithm when used with noise that is very far in nature from the Gaussian case, where it is designed to work well. Usually these algorithms are implemented on very powerful computers. Our experiments are all carried out on a small laptop and for the smallest possible image size. Exploring how our observations are confirmed or changed when dealing in different situations remains an interesting challenge.
- Abstract(参考訳): 畳み込み{SDWMG,HJA,HHG} で与えられる拡散モデルを用いてコンピュータビジョンをノイズ化する顕著な結果は、ガウス独立な$N(0,1)$ランダム変数の列の重要な性質に基づいて、アルゴリズムに対して堅牢な数学的正当性をもたらす。
特に、導出はガウス分布がその平均と分散によって決定され、2つのガウスの和が別のガウス分布であるという事実を用いる。
例えば、一様に分散されたノイズやノイズをベータ分布に置き換えたり、全く異なる分散を持つ2つのガウスのランダムな重ね合わせであるノイズを仮定する。
もちろん、ノイズの性質を念頭に置いてアルゴリズムを修正しようとしても、そうはならない。
代わりに、ガウスの場合とは全く異なる性質のノイズで使用されるアルゴリズムの性能について検討し、うまく機能するように設計する。
通常、これらのアルゴリズムは強力なコンピュータ上で実装される。
実験はすべて小さなラップトップと最小限の画像サイズで行われます。
異なる状況に対処する際に、我々の観察がどのように確認されるか、あるいは変更されるかを調べることは、まだ興味深い課題である。
関連論文リスト
- Better Gaussian Mechanism using Correlated Noise [1.450405446885067]
分散を$(sqrtd + 1)/4$にスケールしたガウス変数として分布するランダム変数を追加することで、独立雑音サンプルの分散を$(d + sqrtd)/4$でのみスケールできることを示す。
私たちのメカニズムの中心的な考え方はシンプルで、そのテクニックは柔軟です。
論文 参考訳(メタデータ) (2024-08-13T12:31:03Z) - Learning Mixtures of Gaussians Using Diffusion Models [9.118706387430883]
我々は、$k$ Gaussiansの混合をTVエラー$varepsilon$、quasi-polynomial$O(ntextpoly,logleft(fracn+kvarepsilonright)$で学習するための新しいアルゴリズムを提供する。
結果は、混合分布が一定半径の$k$球の和で支持されるガウスの連続混合に拡張される。
論文 参考訳(メタデータ) (2024-04-29T17:00:20Z) - Already Moderate Population Sizes Provably Yield Strong Robustness to Noise [53.27802701790209]
2つの進化的アルゴリズムは、OneMaxベンチマークのランタイムを増大させることなく、一定のノイズ確率を許容できることを示す。
この結果は、ノイズのない子孫は親と騒々しい子孫の間に偏りのある均一な交叉と見なすことができるという、新しい証明の議論に基づいている。
論文 参考訳(メタデータ) (2024-04-02T16:35:52Z) - Some Constructions of Private, Efficient, and Optimal $K$-Norm and Elliptic Gaussian Noise [54.34628844260993]
微分プライベートな計算は、しばしば$d$次元統計学の感度に束縛されて始まる。
純粋な微分プライバシーのために、$K$-normメカニズムは統計学の感度空間に合わせた規範を用いてこのアプローチを改善することができる。
本稿では,総和,数,投票の単純な統計量について両問題を解く。
論文 参考訳(メタデータ) (2023-09-27T17:09:36Z) - Gradient-free optimization of highly smooth functions: improved analysis
and a new algorithm [87.22224691317766]
この研究は、目的関数が極めて滑らかであるという仮定の下で、ゼロ次ノイズオラクル情報による問題を研究する。
ゼロオーダー射影勾配勾配アルゴリズムを2種類検討する。
論文 参考訳(メタデータ) (2023-06-03T17:05:13Z) - Optimizing the Noise in Self-Supervised Learning: from Importance
Sampling to Noise-Contrastive Estimation [80.07065346699005]
GAN(Generative Adversarial Networks)のように、最適な雑音分布はデータ分布に等しくなると広く想定されている。
我々は、この自己教師型タスクをエネルギーベースモデルの推定問題として基礎づけるノイズ・コントラスト推定に目を向ける。
本研究は, 最適雑音のサンプリングは困難であり, 効率性の向上は, データに匹敵する雑音分布を選択することに比べ, 緩やかに行うことができると結論付けた。
論文 参考訳(メタデータ) (2023-01-23T19:57:58Z) - Higher degree sum-of-squares relaxations robust against oblivious
outliers [14.58610686291355]
我々は、$Y=X*+N$という形の推定モデルを考える。
本稿では,2乗推定アルゴリズムが存在するすべての推定問題において,軽度仮定の下で信号が$X*$に回復するアルゴリズム群を紹介する。
論文 参考訳(メタデータ) (2022-11-14T13:09:12Z) - Target Aware Poisson-Gaussian Noise Parameters Estimation from Noisy
Images [0.0]
センサが捉えた生画像に対して,Poisson-Gaussianノイズモデルを用いる。
分散および累積統計量に基づく2つのアルゴリズムを提案する。
論文 参考訳(メタデータ) (2022-10-21T17:53:56Z) - The Optimal Noise in Noise-Contrastive Learning Is Not What You Think [80.07065346699005]
この仮定から逸脱すると、実際により良い統計的推定結果が得られることが示される。
特に、最適な雑音分布は、データと異なり、また、別の家族からさえも異なる。
論文 参考訳(メタデータ) (2022-03-02T13:59:20Z) - Shape Matters: Understanding the Implicit Bias of the Noise Covariance [76.54300276636982]
勾配降下のノイズはパラメータ化モデルに対するトレーニングにおいて重要な暗黙の正則化効果をもたらす。
ミニバッチやラベルの摂動によって引き起こされるパラメータ依存ノイズはガウスノイズよりもはるかに効果的であることを示す。
分析の結果,パラメータ依存ノイズは局所最小値に偏りを生じさせるが,球状ガウス雑音は生じないことがわかった。
論文 参考訳(メタデータ) (2020-06-15T18:31:02Z) - The Discrete Gaussian for Differential Privacy [26.179150185540514]
微分プライベートシステムを構築するための重要なツールは、機密データセットで評価された関数の出力にガウスノイズを追加することである。
これまでの研究は、一見無害な数値エラーがプライバシーを完全に破壊することを示した。
差分プライバシーの文脈において、離散ガウシアンを導入・分析する。
論文 参考訳(メタデータ) (2020-03-31T18:00:00Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。