論文の概要: Stochastic Perturbations of Tabular Features for Non-Deterministic
Inference with Automunge
- arxiv url: http://arxiv.org/abs/2202.09248v1
- Date: Fri, 18 Feb 2022 15:24:03 GMT
- ステータス: 処理完了
- システム内更新日: 2022-02-21 17:14:09.180501
- Title: Stochastic Perturbations of Tabular Features for Non-Deterministic
Inference with Automunge
- Title(参考訳): オートマンジを用いた非決定論的推論のための表的特徴の確率的摂動
- Authors: Nicholas J. Teague
- Abstract要約: ガウス雑音を訓練特徴に注入することは正規化特性を持つことが知られている。
本稿では, 数値的, カテゴリー的な表型特徴に対する雑音注入について, 推論に渡されるものとして考察する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Injecting gaussian noise into training features is well known to have
regularization properties. This paper considers noise injections to numeric or
categoric tabular features as passed to inference, which translates inference
to a non-deterministic outcome and may have relevance to fairness
considerations, adversarial example protection, or other use cases benefiting
from non-determinism. We offer the Automunge library for tabular preprocessing
as a resource for the practice, which includes options to integrate random
sampling or entropy seeding with the support of quantum circuits for an
improved randomness profile in comparison to pseudo random number generators.
Benchmarking shows that neural networks may demonstrate an improved performance
when a known noise profile is mitigated with corresponding injections to both
training and inference, and that gradient boosting appears to be robust to a
mild noise profile in inference, suggesting that stochastic perturbations could
be integrated into existing data pipelines for prior trained gradient boosting
models.
- Abstract(参考訳): ガウス雑音を訓練特徴に注入することは正規化特性を持つことが知られている。
本論文は,非決定論的結果に推論を変換し,公平性,対人的事例保護,あるいは非決定主義の恩恵を受ける他のユースケースとの関連性を有する,数値的あるいはカテゴリー的な表型特徴へのノイズ注入について考察する。
ランダムサンプリングやエントロピーシードを量子回路に組み込むことで、擬似乱数生成器と比較してランダム性プロファイルが向上するオプションを含む、練習用リソースとして表計算前処理のためのAutomungeライブラリを提供する。
ベンチマークでは、既知のノイズプロファイルがトレーニングと推論の両方に対応する注入によって緩和された場合、ニューラルネットワークのパフォーマンスが向上する可能性があることが示されている。
関連論文リスト
- Accelerated zero-order SGD under high-order smoothness and overparameterized regime [79.85163929026146]
凸最適化問題を解くための新しい勾配のないアルゴリズムを提案する。
このような問題は医学、物理学、機械学習で発生する。
両種類の雑音下で提案アルゴリズムの収束保証を行う。
論文 参考訳(メタデータ) (2024-11-21T10:26:17Z) - Robust Gaussian Processes via Relevance Pursuit [17.39376866275623]
本稿では,データポイント固有ノイズレベルを推定することにより,スパースアウトレーヤに対するロバスト性を実現するGPモデルを提案する。
我々は,データポイント固有ノイズ分散において,関連する対数限界確率が強く抑制されるようなパラメータ化が可能であることを,驚くべきことに示している。
論文 参考訳(メタデータ) (2024-10-31T17:59:56Z) - Noise-Aware Differentially Private Variational Inference [5.4619385369457225]
差分プライバシー(DP)は統計的推測に対して堅牢なプライバシー保証を提供するが、これは下流アプリケーションにおいて信頼性の低い結果とバイアスをもたらす可能性がある。
勾配変動推定に基づく雑音を考慮した近似ベイズ推定法を提案する。
また,より正確な雑音認識後部評価手法を提案する。
論文 参考訳(メタデータ) (2024-10-25T08:18:49Z) - Noise-mitigated randomized measurements and self-calibrating shadow
estimation [0.0]
ランダム化測定の誤差軽減手法を導入し,ロバストなシャドウ推定手法を提案する。
実用面では, 量子実験と同じセッションを用いて, 誤差緩和と影推定を行うことができることを示す。
論文 参考訳(メタデータ) (2024-03-07T18:53:56Z) - Noisy Correspondence Learning with Self-Reinforcing Errors Mitigation [63.180725016463974]
クロスモーダル検索は、実際は精力的な、十分に整合した大規模データセットに依存している。
我々は、新しい雑音対応学習フレームワーク、textbfSelf-textbfReinforcing textbfErrors textbfMitigation(SREM)を導入する。
論文 参考訳(メタデータ) (2023-12-27T09:03:43Z) - May the Noise be with you: Adversarial Training without Adversarial
Examples [3.4673556247932225]
我々は、敵の訓練を受けずに敵の訓練を受けたモデルを得ることができるかという疑問を調査する。
提案手法は,訓練時にNNモデルの層にガウス雑音を埋め込むことによって固有性を取り入れる。
我々の研究は、全く異なるアプローチで敵の訓練を受けたネットワークに貢献し、敵の訓練と経験的に類似した堅牢性を持つ。
論文 参考訳(メタデータ) (2023-12-12T08:22:28Z) - User-defined Event Sampling and Uncertainty Quantification in Diffusion
Models for Physical Dynamical Systems [49.75149094527068]
拡散モデルを用いて予測を行い,カオス力学系に対する不確かさの定量化が可能であることを示す。
本研究では,雑音レベルが低下するにつれて真の分布に収束する条件付きスコア関数の確率的近似法を開発する。
推論時に非線形ユーザ定義イベントを条件付きでサンプリングすることができ、分布の尾部からサンプリングした場合でもデータ統計と一致させることができる。
論文 参考訳(メタデータ) (2023-06-13T03:42:03Z) - The Optimal Noise in Noise-Contrastive Learning Is Not What You Think [80.07065346699005]
この仮定から逸脱すると、実際により良い統計的推定結果が得られることが示される。
特に、最適な雑音分布は、データと異なり、また、別の家族からさえも異なる。
論文 参考訳(メタデータ) (2022-03-02T13:59:20Z) - Sampling-free Variational Inference for Neural Networks with
Multiplicative Activation Noise [51.080620762639434]
サンプリングフリー変動推論のための後方近似のより効率的なパラメータ化を提案する。
提案手法は,標準回帰問題に対する競合的な結果をもたらし,大規模画像分類タスクに適している。
論文 参考訳(メタデータ) (2021-03-15T16:16:18Z) - RDP-GAN: A R\'enyi-Differential Privacy based Generative Adversarial
Network [75.81653258081435]
GAN(Generative Adversarial Network)は,プライバシ保護の高い現実的なサンプルを生成する能力によって,近年注目を集めている。
しかし、医療記録や財務記録などの機密・私的な訓練例にGANを適用すると、個人の機密・私的な情報を漏らしかねない。
本稿では、学習中の損失関数の値にランダムノイズを慎重に付加することにより、GAN内の差分プライバシー(DP)を実現するR'enyi-differentially private-GAN(RDP-GAN)を提案する。
論文 参考訳(メタデータ) (2020-07-04T09:51:02Z) - Generalized Gumbel-Softmax Gradient Estimator for Various Discrete
Random Variables [16.643346012854156]
ノードの勾配を評価することは、深層生成モデリングコミュニティにおいて重要な研究課題の1つである。
本稿では,連続緩和を伴うGumbel-Softmax推定器の一般バージョンを提案する。
論文 参考訳(メタデータ) (2020-03-04T01:13:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。