論文の概要: Uncovering Critical Sets of Deep Neural Networks via Sample-Independent Critical Lifting
- arxiv url: http://arxiv.org/abs/2505.13582v1
- Date: Mon, 19 May 2025 15:50:36 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-21 14:49:52.461052
- Title: Uncovering Critical Sets of Deep Neural Networks via Sample-Independent Critical Lifting
- Title(参考訳): サンプル非依存臨界リフティングによる深部ニューラルネットワークの臨界集合の発見
- Authors: Leyang Zhang, Yaoyu Zhang, Tao Luo,
- Abstract要約: 本稿では,あるネットワークのパラメータと他のネットワークのパラメータとを関連付ける,サンプル非依存クリティカルリフト演算子を提案し,サンプル非依存臨界点とサンプル非依存臨界点を定義する。
サンプル依存揚力臨界点の存在を十分に大きなサンプルサイズで証明し,その中にサドルが存在することを証明した。
- 参考スコア(独自算出の注目度): 4.418361486640713
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: This paper investigates the sample dependence of critical points for neural networks. We introduce a sample-independent critical lifting operator that associates a parameter of one network with a set of parameters of another, thus defining sample-dependent and sample-independent lifted critical points. We then show by example that previously studied critical embeddings do not capture all sample-independent lifted critical points. Finally, we demonstrate the existence of sample-dependent lifted critical points for sufficiently large sample sizes and prove that saddles appear among them.
- Abstract(参考訳): 本稿では,ニューラルネットワークにおける臨界点のサンプル依存性について検討する。
本稿では,あるネットワークのパラメータと他のネットワークのパラメータとを関連付ける,サンプル非依存クリティカルリフト演算子を提案し,サンプル非依存臨界点とサンプル非依存臨界点を定義する。
次に、以前に研究された臨界埋め込みは、すべてのサンプル非依存の持ち上げ臨界点を捕捉しないことを示す。
最後に,サンプル依存型起立臨界点の存在を十分に大きなサンプルサイズで証明し,その中にサドルが存在することを証明した。
関連論文リスト
- CLT and Edgeworth Expansion for m-out-of-n Bootstrap Estimators of The Studentized Median [4.174296652683762]
m-out-of-nブートストラップはmサブサンプルをnサイズの元のサンプルから置き換えることなく繰り返し描画することで統計量の分布を近似する。
エコノメトリ、バイオ統計学、機械学習にまたがる幅広い適用性にもかかわらず、ブートストラップの音質に対する厳密なパラメータなし保証はいまだに解明されていない。
本稿では,n 個のデータセットの m-of-n 再サンプリングから得られたサンプル定量値の推定器を解析することにより,そのような保証を確立する。
論文 参考訳(メタデータ) (2025-05-16T22:14:49Z) - Finite Samples for Shallow Neural Networks [16.792336019730044]
本稿では, 様々な非線形活性化関数を持つ2層非既約浅層ネットワークを有限標本で同定する能力について検討する。
有限標本は任意の既約ReLU浅層ネットワークの同定に不十分であることを示す。
我々は,2層非既約浅層解析網の回復を可能にする有限サンプルを構築した。
論文 参考訳(メタデータ) (2025-03-17T02:24:31Z) - A Note on Bayesian Networks with Latent Root Variables [56.86503578982023]
残りの, 証明, 変数に対する限界分布もまたベイズ的ネットワークとして分解され, 経験的と呼ぶ。
マニフェスト変数の観測のデータセットにより、経験的ベイズネットのパラメータを定量化することができる。
論文 参考訳(メタデータ) (2024-02-26T23:53:34Z) - Beyond Farthest Point Sampling in Point-Wise Analysis [52.218037492342546]
本稿では,ポイントワイズ分析タスクのための新しいデータ駆動型サンプル学習手法を提案する。
我々はサンプルと下流のアプリケーションを共同で学習する。
実験により, 従来のベースライン法に比べて, サンプルとタスクの同時学習が顕著に改善することが示された。
論文 参考訳(メタデータ) (2021-07-09T08:08:44Z) - Adversarial Examples Detection with Bayesian Neural Network [57.185482121807716]
本稿では,ランダムな成分が予測器の滑らかさを向上できるという観測によって動機づけられた敵の例を検出するための新しい枠組みを提案する。
本稿では,BATer を略した新しいベイズ対向型サンプル検出器を提案し,対向型サンプル検出の性能を向上させる。
論文 参考訳(メタデータ) (2021-05-18T15:51:24Z) - Contrastive Attraction and Contrastive Repulsion for Representation
Learning [131.72147978462348]
コントラスト学習(CL)法は,複数の負のサンプルに対して,エンコーダが各正のサンプルと対比する自己超越的な方法でデータ表現を学習する。
最近のCL法は、ImageNetのような大規模データセットで事前訓練された場合、有望な結果を得た。
自己グループ内の正と負のサンプルを別々に比較し、正と負の群を対比して進行する2つのCL戦略を提案する。
論文 参考訳(メタデータ) (2021-05-08T17:25:08Z) - Rethinking Sampling in 3D Point Cloud Generative Adversarial Networks [82.72642388129843]
サンプリング非感受性判別器は点クラスタリングアーティファクトを持つ形状点雲を生成する一方で、サンプリング非感受性判別器は有効な形状生成を導くことができないことを示す。
判別器の異なるサンプリング感度を示すために,サンプリングスペクトルの概念を提案する。
そこで本研究では, サンプリング関連指標において, 既存のクラウドジェネレータをすべて改良した, ミドルポイントサンプリング対応のベースライン判別器であるPointNet-Mixについて検討する。
論文 参考訳(メタデータ) (2020-06-12T09:29:24Z) - Towards an Intrinsic Definition of Robustness for a Classifier [4.205692673448206]
検証セットにおける試料のロバスト性半径の平均化は統計的に弱い尺度であることを示す。
その代わりに, 試料の難易度に応じて, 試料の重要性を重み付けすることを提案する。
提案したスコアが,サンプルの選択にほとんど依存せず,分類器のロバスト性を測定することを実証的に示す。
論文 参考訳(メタデータ) (2020-06-09T07:47:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。