論文の概要: Training Image Derivatives: Increased Accuracy and Universal Robustness
- arxiv url: http://arxiv.org/abs/2310.14045v1
- Date: Sat, 21 Oct 2023 15:43:24 GMT
- ステータス: 処理完了
- システム内更新日: 2023-10-25 02:12:11.308655
- Title: Training Image Derivatives: Increased Accuracy and Universal Robustness
- Title(参考訳): トレーニング画像導出物:精度の向上とユニバーサルロバストネス
- Authors: Vsevolod I. Avrutskiy
- Abstract要約: デリバティブトレーニングは、ニューラルネットワークの精度を改善するためのよく知られた方法である。
本稿では,その画像に基づいて立方体の頂点を再構築する作業について考察する。
立方体の6自由度に関する導関数を訓練することにより、ノイズレス入力の25倍の精度が得られる。
- 参考スコア(独自算出の注目度): 3.9160947065896803
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Derivative training is a well-known method to improve the accuracy of neural
networks. In the forward pass, not only the output values are computed, but
also their derivatives, and their deviations from the target derivatives are
included in the cost function, which is minimized with respect to the weights
by a gradient-based algorithm. So far, this method has been implemented for
relatively low-dimensional tasks. In this study, we apply the approach to the
problem of image analysis. We consider the task of reconstructing the vertices
of a cube based on its image. By training the derivatives with respect to the 6
degrees of freedom of the cube, we obtain 25 times more accurate results for
noiseless inputs. The derivatives also provide important insights into the
robustness problem, which is currently understood in terms of two types of
network vulnerabilities. The first type is small perturbations that
dramatically change the output, and the second type is substantial image
changes that the network erroneously ignores. They are currently considered as
conflicting goals, since conventional training methods produce a trade-off. The
first type can be analyzed via the gradient of the network, but the second type
requires human evaluation of the inputs, which is an oracle substitute. For the
task at hand, the nearest neighbor oracle can be defined, and the knowledge of
derivatives allows it to be expanded into Taylor series. This allows to perform
the first-order robustness analysis that unifies both types of vulnerabilities,
and to implement robust training that eliminates any trade-offs, so that
accuracy and robustness are limited only by network capacity.
- Abstract(参考訳): デリバティブトレーニングは、ニューラルネットワークの精度を改善するためのよく知られた方法である。
フォワードパスでは、出力値だけでなく、それらの導関数も計算され、それらの対象導関数からの偏差は、勾配に基づくアルゴリズムによって重み付けに対して最小化されたコスト関数に含まれる。
これまでのところ、この方法は比較的低次元のタスクに実装されている。
本研究では,画像解析の問題にアプローチを適用する。
我々はその画像に基づいて立方体の頂点を再構築する作業を検討する。
立方体の6自由度に関する導関数を訓練することにより、ノイズレス入力の25倍の精度が得られる。
デリバティブはまた、2種類のネットワーク脆弱性の観点から現在理解されているロバストネス問題に関する重要な洞察を提供する。
第1の型は出力を劇的に変更する小さな摂動であり、第2の型はネットワークが誤って無視する実質的な画像変化である。
従来の訓練方法はトレードオフをもたらすため、現在は矛盾する目標とみなされている。
第1のタイプはネットワークの勾配を通して解析できるが、第2のタイプは、オラクル代替品である入力の人間による評価を必要とする。
手前のタスクでは、最寄りのオラクルを定義することができ、デリバティブの知識により、テイラー級数に拡張できる。
これにより、両方の脆弱性を統一する一階のロバストネス分析を実行し、いかなるトレードオフも排除するロバストトレーニングを実行し、正確性とロバスト性はネットワーク容量によってのみ制限される。
関連論文リスト
- WiNet: Wavelet-based Incremental Learning for Efficient Medical Image Registration [68.25711405944239]
深部画像登録は異常な精度と高速な推測を示した。
近年の進歩は、粗大から粗大の方法で密度変形場を推定するために、複数のカスケードまたはピラミッドアーキテクチャを採用している。
本稿では,様々なスケールにわたる変位/速度場に対して,スケールワイブレット係数を漸進的に推定するモデル駆動WiNetを提案する。
論文 参考訳(メタデータ) (2024-07-18T11:51:01Z) - Uncertainty Propagation through Trained Deep Neural Networks Using
Factor Graphs [4.704825771757308]
不確実性伝播は、入力不確かさをネットワーク予測に伝播させることにより、アレタリック不確かさを推定しようとする。
深層ニューラルネットワーク内の複雑な情報の流れに触発され,因子グラフを用いた非線形最適化問題として不確実性伝播を仮定して新しい手法を開発した。
論文 参考訳(メタデータ) (2023-12-10T17:26:27Z) - Enhancing Multiple Reliability Measures via Nuisance-extended
Information Bottleneck [77.37409441129995]
トレーニングデータに制限がある現実的なシナリオでは、データ内の多くの予測信号は、データ取得のバイアスからより多く得る。
我々は,相互情報制約の下で,より広い範囲の摂動をカバーできる敵の脅威モデルを考える。
そこで本研究では,その目的を実現するためのオートエンコーダベーストレーニングと,提案したハイブリッド識別世代学習を促進するための実用的なエンコーダ設計を提案する。
論文 参考訳(メタデータ) (2023-03-24T16:03:21Z) - THAT: Two Head Adversarial Training for Improving Robustness at Scale [126.06873298511425]
本研究では,大規模多クラスイメージネットデータセットを扱うために設計された2ストリームの逆学習ネットワークであるhead adversarial trainingを提案する。
提案手法では,2つのヘッドと2つの損失関数を持つネットワークを訓練する。1つは自然画像と逆画像間の特徴空間領域シフトを最小化し,もう1つは高い分類精度を促進する。
論文 参考訳(メタデータ) (2021-03-25T05:32:38Z) - Convex Regularization Behind Neural Reconstruction [21.369208659395042]
本論文では、凸ソルバにニューラルネットワークを拡張可能にする凸双対性フレームワークを提唱する。
MNIST fastMRIデータセットを用いた実験は、二重ネットワーク最適化問題の有効性を確認する。
論文 参考訳(メタデータ) (2020-12-09T16:57:16Z) - Encoding Robustness to Image Style via Adversarial Feature Perturbations [72.81911076841408]
我々は、画像画素ではなく特徴統計を直接摂動することで、頑健なモデルを生成することで、敵の訓練に適応する。
提案手法であるAdvBN(Adversarial Batch Normalization)は,トレーニング中に最悪の機能摂動を発生させる単一ネットワーク層である。
論文 参考訳(メタデータ) (2020-09-18T17:52:34Z) - Second Order Optimization for Adversarial Robustness and
Interpretability [6.700873164609009]
本稿では,2次近似による第1次及び第2次情報を対向損失に組み込んだ新しい正則化器を提案する。
正規化器における1つの繰り返しのみを用いることで、先行勾配や曲率正規化よりも強い強靭性が得られることが示されている。
それは、ネットワークが人間の知覚によく適合する機能を学ぶという、ATの興味深い側面を保っている。
論文 参考訳(メタデータ) (2020-09-10T15:05:14Z) - Adversarial Training Reduces Information and Improves Transferability [81.59364510580738]
近年の研究では, 頑健性に加えて, 可逆性などの望ましい特性が期待できることが示されている。
本稿では,新たなタスクへの線形転送性の向上を図り,表現の伝達可能性とソースタスクの精度の間に新たなトレードオフが生じていることを示す。
論文 参考訳(メタデータ) (2020-07-22T08:30:16Z) - Uncertainty Quantification in Deep Residual Neural Networks [0.0]
不確かさの定量化は、ディープラーニングにおいて重要で困難な問題である。
以前の方法は、現代のディープアーキテクチャやバッチサイズに敏感なバッチ正規化には存在しないドロップアウト層に依存していた。
本研究では,ニューラルネットワークの後方重みに対する変動近似として,深度を用いた残留ネットワークのトレーニングが可能であることを示す。
論文 参考訳(メタデータ) (2020-07-09T16:05:37Z) - Hidden Cost of Randomized Smoothing [72.93630656906599]
本稿では、現在のランダム化平滑化による副作用を指摘する。
具体的には,1)スムーズな分類器の決定境界が小さくなり,クラスレベルでの精度の相違が生じること,2)学習過程における雑音増強の適用は,一貫性のない学習目的による縮小問題を必ずしも解決しない,という2つの主要なポイントを具体化し,証明する。
論文 参考訳(メタデータ) (2020-03-02T23:37:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。