論文の概要: Understanding Deep Learning via Decision Boundary
- arxiv url: http://arxiv.org/abs/2206.01515v2
- Date: Sun, 24 Dec 2023 15:18:37 GMT
- ステータス: 処理完了
- システム内更新日: 2023-12-27 23:29:12.279718
- Title: Understanding Deep Learning via Decision Boundary
- Title(参考訳): 決定境界による深層学習の理解
- Authors: Shiye Lei, Fengxiang He, Yancheng Yuan, Dacheng Tao
- Abstract要約: 決定境界(DB)の変動が低いニューラルネットワークはより一般化可能であることを示す。
アルゴリズムDBの変数と$(epsilon, eta)$-data DBの変数という2つの新しい概念が、決定境界の変数を測定するために提案されている。
- 参考スコア(独自算出の注目度): 81.49114762506287
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This paper discovers that the neural network with lower decision boundary
(DB) variability has better generalizability. Two new notions, algorithm DB
variability and $(\epsilon, \eta)$-data DB variability, are proposed to measure
the decision boundary variability from the algorithm and data perspectives.
Extensive experiments show significant negative correlations between the
decision boundary variability and the generalizability. From the theoretical
view, two lower bounds based on algorithm DB variability are proposed and do
not explicitly depend on the sample size. We also prove an upper bound of order
$\mathcal{O}\left(\frac{1}{\sqrt{m}}+\epsilon+\eta\log\frac{1}{\eta}\right)$
based on data DB variability. The bound is convenient to estimate without the
requirement of labels, and does not explicitly depend on the network size which
is usually prohibitively large in deep learning.
- Abstract(参考訳): 本稿では,決定境界(db)変動率の低いニューラルネットワークの一般化性について検討する。
2つの新しい概念、アルゴリズムDB変数と$(\epsilon, \eta)$-data DB変数は、アルゴリズムとデータの観点から決定境界変数を測定するために提案される。
大規模実験では,決定境界変数と一般化可能性との間に有意な負の相関が認められた。
理論的観点からは、アルゴリズムDBの可変性に基づく2つの下位境界が提案され、標本サイズに明示的に依存しない。
また、データ DB の変数に基づいて、次数 $\mathcal{O}\left(\frac{1}{\sqrt{m}}+\epsilon+\eta\log\frac{1}{\eta}\right)$ の上限も証明する。
境界はラベルの必要なしに推定するのに便利であり、深層学習で通常禁止される大きさのネットワークサイズに明示的に依存しない。
関連論文リスト
- Sharper Guarantees for Learning Neural Network Classifiers with Gradient Methods [43.32546195968771]
本研究では,スムーズなアクティベーションを有するニューラルネットワークに対する勾配法におけるデータ依存収束と一般化挙動について検討する。
我々の結果は、よく確立されたRadecher複雑性に基づく境界の欠点を改善した。
XOR分布の分類において、NTK体制の結果に対して大きなステップサイズが大幅に改善されることが示されている。
論文 参考訳(メタデータ) (2024-10-13T21:49:29Z) - Variance-Aware Regret Bounds for Stochastic Contextual Dueling Bandits [53.281230333364505]
本稿では, 一般化線形モデル(GLM)から, デュエルアームのバイナリ比較を生成するコンテキストデュエルバンド問題について検討する。
本稿では,SupLinUCB型アルゴリズムを提案する。このアルゴリズムは,計算効率と分散を意識したリセットバウンド$tilde Obig(dsqrtsum_t=1Tsigma_t2 + dbig)$を提案する。
我々の後悔は、比較が決定論的である場合の直感的な期待と自然に一致し、アルゴリズムは$tilde O(d)$ regretにのみ悩まされる。
論文 参考訳(メタデータ) (2023-10-02T08:15:52Z) - Typical and atypical solutions in non-convex neural networks with
discrete and continuous weights [2.7127628066830414]
ランダムな規則や関連を学習する単純な非拘束型ネットワークモデルとして、二項および連続負マージンパーセプトロンについて検討する。
どちらのモデルも、非常に平坦で幅の広い劣支配的な最小化器を示す。
両モデルにおいて、学習装置としての一般化性能は、広い平坦な最小化器の存在により大幅に向上することを示した。
論文 参考訳(メタデータ) (2023-04-26T23:34:40Z) - Deep Neural Networks for Nonparametric Interaction Models with Diverging
Dimension [6.939768185086753]
成長次元シナリオ (d$ grows with $n$ but at a slow rate) と高次元 (dgtrsim n$) の両方において、$kth$オーダーの非パラメトリック相互作用モデルを分析する。
特定の標準仮定の下では、デバイアスドディープニューラルネットワークは、$(n, d)$の両面において、極小値の最適値を達成している。
論文 参考訳(メタデータ) (2023-02-12T04:19:39Z) - SUN: Exploring Intrinsic Uncertainties in Text-to-SQL Parsers [61.48159785138462]
本稿では,ニューラルネットワークに基づくアプローチ(SUN)における本質的な不確かさを探索することにより,テキストから依存への変換性能を向上させることを目的とする。
5つのベンチマークデータセットの大規模な実験により、我々の手法は競合より大幅に優れ、新しい最先端の結果が得られた。
論文 参考訳(メタデータ) (2022-09-14T06:27:51Z) - Scaling Structured Inference with Randomization [64.18063627155128]
本稿では、構造化されたモデルを数万の潜在状態に拡張するためにランダム化された動的プログラミング(RDP)のファミリを提案する。
我々の手法は古典的DPベースの推論に広く適用できる。
また、自動微分とも互換性があり、ニューラルネットワークとシームレスに統合できる。
論文 参考訳(メタデータ) (2021-12-07T11:26:41Z) - Causal Order Identification to Address Confounding: Binary Variables [4.56877715768796]
本稿では,線形非ガウス非巡回モデル(LiNGAM)の拡張について考察する。
LiNGAMは、変数が雑音を含む一連の線形方程式で表されるとき、データセットから変数間の因果順序を決定する。
論文 参考訳(メタデータ) (2021-08-10T22:09:43Z) - Instance-optimality in optimal value estimation: Adaptivity via
variance-reduced Q-learning [99.34907092347733]
本稿では,マルコフ決定過程における最適な$Q$値関数を離散状態と動作で推定する問題を解析する。
局所的なミニマックスフレームワークを用いて、この関数は任意の推定手順の精度の低い境界に現れることを示す。
他方,Q$ラーニングの分散還元版を解析することにより,状態と行動空間の対数的要因まで,下位境界のシャープさを確立する。
論文 参考訳(メタデータ) (2021-06-28T00:38:54Z) - Analysis of Generalizability of Deep Neural Networks Based on the
Complexity of Decision Boundary [0.0]
我々は、決定境界複雑性(DBC)スコアを作成し、ディープニューラルネットワーク(DNN)モデルの決定境界の複雑さを定義し、測定する。
DBCスコアは、決定境界の複雑さを測定する効果的な方法を提供し、DNNの一般化可能性の定量的尺度を提供する。
論文 参考訳(メタデータ) (2020-09-16T23:25:52Z) - Effective Version Space Reduction for Convolutional Neural Networks [61.84773892603885]
アクティブラーニングでは、サンプリングバイアスは深刻な矛盾問題を引き起こし、アルゴリズムが最適な仮説を見つけるのを妨げる可能性がある。
本稿では,畳み込みニューラルネットワークを用いた能動学習について,バージョン空間削減の原理的レンズを用いて検討する。
論文 参考訳(メタデータ) (2020-06-22T17:40:03Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。