論文の概要: On the Reproducibility of Neural Network Predictions
- arxiv url: http://arxiv.org/abs/2102.03349v1
- Date: Fri, 5 Feb 2021 18:51:01 GMT
- ステータス: 処理完了
- システム内更新日: 2021-02-08 13:00:37.881714
- Title: On the Reproducibility of Neural Network Predictions
- Title(参考訳): ニューラルネットワーク予測の再現性について
- Authors: Srinadh Bhojanapalli, Kimberly Wilber, Andreas Veit, Ankit Singh
Rawat, Seungyeon Kim, Aditya Menon, Sanjiv Kumar
- Abstract要約: そこで本研究では, チャーン問題について検討し, 原因因子を同定し, 緩和する2つの簡単な方法を提案する。
最初に、標準的な画像分類タスクであっても、チャーンが問題であることを示す。
我々は,予測信頼度を高めるために,エントロピー正規化器を提案する。
両手法の有効性を実証的に示し, 基礎モデルの精度を向上しながら, チャーン低減効果を示す。
- 参考スコア(独自算出の注目度): 52.47827424679645
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Standard training techniques for neural networks involve multiple sources of
randomness, e.g., initialization, mini-batch ordering and in some cases data
augmentation. Given that neural networks are heavily over-parameterized in
practice, such randomness can cause {\em churn} -- for the same input,
disagreements between predictions of the two models independently trained by
the same algorithm, contributing to the `reproducibility challenges' in modern
machine learning. In this paper, we study this problem of churn, identify
factors that cause it, and propose two simple means of mitigating it. We first
demonstrate that churn is indeed an issue, even for standard image
classification tasks (CIFAR and ImageNet), and study the role of the different
sources of training randomness that cause churn. By analyzing the relationship
between churn and prediction confidences, we pursue an approach with two
components for churn reduction. First, we propose using \emph{minimum entropy
regularizers} to increase prediction confidences. Second, \changes{we present a
novel variant of co-distillation approach~\citep{anil2018large} to increase
model agreement and reduce churn}. We present empirical results showing the
effectiveness of both techniques in reducing churn while improving the accuracy
of the underlying model.
- Abstract(参考訳): ニューラルネットワークの標準的なトレーニング技術には、初期化、ミニバッチ順序付け、場合によってはデータ拡張など、複数のランダム性ソースが含まれる。
ニューラルネットワークが実際には過度にパラメータ化されていることを考えると、そのようなランダム性は"em churn} -- 同じ入力に対して、同じアルゴリズムで独立にトレーニングされた2つのモデルの予測の不一致を引き起こす可能性がある。
本稿では,このチャーン問題について検討し,その原因となる因子を同定し,緩和する2つの簡単な方法を提案する。
まず、標準的な画像分類タスク(CIFARとImageNet)であっても、チャーンが確かに問題であることを示し、チャーンの原因となる異なる訓練ランダム性源の役割を研究します。
チャーンと予測信頼度の関係を解析することにより、チャーン低減のための2つの成分を用いたアプローチを追求する。
まず,予測信頼度を高めるために \emph{minimum entropy regularizers} を提案する。
第2に, モデル合意を増加させチャーンを減少させるために, 共蒸留アプローチの新たな変種を提示する。
両手法の有効性を実証的に示し, 基礎モデルの精度を向上しながら, チャーン低減効果を示す。
関連論文リスト
- Tilt your Head: Activating the Hidden Spatial-Invariance of Classifiers [0.7704032792820767]
ディープニューラルネットワークは、日々の生活の多くの領域に適用されている。
これらは、空間的に変換された入力信号に頑健に対処するなど、依然として必須の能力が欠如している。
本稿では,ニューラルネットの推論過程をエミュレートする新しい手法を提案する。
論文 参考訳(メタデータ) (2024-05-06T09:47:29Z) - Wasserstein distributional robustness of neural networks [9.79503506460041]
ディープニューラルネットワークは敵攻撃(AA)に弱いことが知られている
画像認識タスクでは、元の小さな摂動によって画像が誤分類される可能性がある。
本稿では,Wassersteinの分散ロバスト最適化(DRO)技術を用いて問題を再検討し,新しいコントリビューションを得た。
論文 参考訳(メタデータ) (2023-06-16T13:41:24Z) - VCNet: A self-explaining model for realistic counterfactual generation [52.77024349608834]
事実的説明は、機械学習の決定を局所的に説明するための手法のクラスである。
本稿では,予測器と対実生成器を組み合わせたモデルアーキテクチャであるVCNet-Variational Counter Netを提案する。
我々はVCNetが予測を生成でき、また、別の最小化問題を解くことなく、反現実的な説明を生成できることを示した。
論文 参考訳(メタデータ) (2022-12-21T08:45:32Z) - On the effectiveness of partial variance reduction in federated learning
with heterogeneous data [27.527995694042506]
クライアント間の最終分類層の多様性は、FedAvgアルゴリズムの性能を阻害することを示す。
そこで本研究では,最終層のみの分散還元によるモデル修正を提案する。
同様の通信コストや低い通信コストで既存のベンチマークを著しく上回っていることを実証する。
論文 参考訳(メタデータ) (2022-12-05T11:56:35Z) - MEMO: Test Time Robustness via Adaptation and Augmentation [131.28104376280197]
テスト時間ロバスト化の問題、すなわちモデルロバスト性を改善するためにテストインプットを用いて検討する。
最近の先行研究ではテスト時間適応法が提案されているが、それぞれ追加の仮定を導入している。
モデルが確率的で適応可能な任意のテスト環境で使用できるシンプルなアプローチを提案する。
論文 参考訳(メタデータ) (2021-10-18T17:55:11Z) - Towards an Understanding of Benign Overfitting in Neural Networks [104.2956323934544]
現代の機械学習モデルは、しばしば膨大な数のパラメータを使用し、通常、トレーニング損失がゼロになるように最適化されている。
ニューラルネットワークの2層構成において、これらの良質な過適合現象がどのように起こるかを検討する。
本稿では,2層型ReLUネットワーク補間器を極小最適学習率で実現可能であることを示す。
論文 参考訳(メタデータ) (2021-06-06T19:08:53Z) - Training Generative Adversarial Networks via stochastic Nash games [2.995087247817663]
GAN(Generative Adversarial Network)は、ジェネレータと識別器という2つの対角ニューラルネットワークを持つ生成モデルのクラスである。
データの数が増加すると、正確な解に収束することを示す。
また, サンプル数が少ない場合, SRFBアルゴリズムの平均変種を解の近傍に収束させることも示した。
論文 参考訳(メタデータ) (2020-10-17T09:07:40Z) - Regularizing Class-wise Predictions via Self-knowledge Distillation [80.76254453115766]
類似サンプル間の予測分布を解析する新しい正規化法を提案する。
これにより、単一のネットワークの暗黒知識(すなわち誤った予測に関する知識)を規則化する。
画像分類タスクにおける実験結果から, 単純だが強力な手法が一般化能力を大幅に向上することを示した。
論文 参考訳(メタデータ) (2020-03-31T06:03:51Z) - A game-theoretic approach for Generative Adversarial Networks [2.995087247817663]
GAN(Generative Adversarial Network)は、生成モデルの一種で、正確なサンプルを作成することで知られている。
彼らの実装の主なボトルネックは、ニューラルネットワークのトレーニングが非常に難しいことだ。
本稿では,GANに対する緩和されたフォワードバックワードアルゴリズムを提案する。
ゲームの擬階写像が単調であるとき、正確な解やその近傍に収束することが証明される。
論文 参考訳(メタデータ) (2020-03-30T17:14:41Z) - Hidden Cost of Randomized Smoothing [72.93630656906599]
本稿では、現在のランダム化平滑化による副作用を指摘する。
具体的には,1)スムーズな分類器の決定境界が小さくなり,クラスレベルでの精度の相違が生じること,2)学習過程における雑音増強の適用は,一貫性のない学習目的による縮小問題を必ずしも解決しない,という2つの主要なポイントを具体化し,証明する。
論文 参考訳(メタデータ) (2020-03-02T23:37:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。