論文の概要: Understanding the geometry of deep learning with decision boundary volume
- arxiv url: http://arxiv.org/abs/2603.14768v1
- Date: Mon, 16 Mar 2026 03:02:52 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-17 16:19:36.018584
- Title: Understanding the geometry of deep learning with decision boundary volume
- Title(参考訳): 決定境界体積を用いた深層学習の幾何学的理解
- Authors: Matthew Burfitt, Jacek Brodzki, Pawel Dłotko,
- Abstract要約: 本稿では,局所的な表面積を通じてニューラルネットワークの決定境界を測定する手法を提案する。
より小さい表面体積は、より低いモデルの複雑さとより良い一般化に対応することが期待されている。
私たちは、よりスムーズな決定境界がより良いパフォーマンスをもたらすことを示しています。
- 参考スコア(独自算出の注目度): 0.3288086999241324
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: For classification tasks, the performance of a deep neural network is determined by the structure of its decision boundary, whose geometry directly affects essential properties of the model, including accuracy and robustness. Motivated by a classical tube formula due to Weyl, we introduce a method to measure the decision boundary of a neural network through local surface volumes, providing a theoretically justifiable and efficient measure enabling a geometric interpretation of the effectiveness of the model applicable to the high dimensional feature spaces considered in deep learning. A smaller surface volume is expected to correspond to lower model complexity and better generalisation. We verify, on a number of image processing tasks with convolutional architectures that decision boundary volume is inversely proportional to classification accuracy. Meanwhile, the relationship between local surface volume and generalisation for fully connected architecture is observed to be less stable between tasks. Therefore, for network architectures suited to a particular data structure, we demonstrate that smoother decision boundaries lead to better performance, as our intuition would suggest.
- Abstract(参考訳): 分類タスクでは、深層ニューラルネットワークの性能は、その決定境界の構造によって決定される。
Weyl による古典的な管公式の動機付けにより,ニューラルネットワークの決定境界を局所的な表面体積で測定する手法を導入し,深層学習における高次元特徴空間に適用可能なモデルの有効性の幾何学的解釈を可能にする理論的に妥当かつ効率的な測定方法を提案する。
より小さい表面体積は、より低いモデルの複雑さとより良い一般化に対応することが期待されている。
我々は,多くの画像処理タスクにおいて,決定境界体積が分類精度に逆比例する,畳み込み型アーキテクチャを用いて検証する。
一方, 局所表面積と完全連結アーキテクチャの一般化の関係は, タスク間の安定性が低いことが観察された。
したがって、特定のデータ構造に適したネットワークアーキテクチャでは、よりスムーズな決定境界が、直感的に示唆されるように、より良いパフォーマンスをもたらすことが示される。
関連論文リスト
- An accurate flatness measure to estimate the generalization performance of CNN models [2.867517731896504]
我々は,CNNの広範かつ実践的なクラスに対して,正確かつアーキテクチャ的に忠実な平坦度尺度を開発する。
その結果,提案手法はCNNモデルの一般化を評価・比較するためのツールとして有効であることが示唆された。
論文 参考訳(メタデータ) (2026-03-09T23:17:49Z) - Generalized Factor Neural Network Model for High-dimensional Regression [50.554377879576066]
複素・非線形・雑音に隠れた潜在低次元構造を持つ高次元データセットをモデル化する課題に取り組む。
我々のアプローチは、非パラメトリック回帰、因子モデル、高次元回帰のためのニューラルネットワークの概念のシームレスな統合を可能にする。
論文 参考訳(メタデータ) (2025-02-16T23:13:55Z) - Task-Oriented Real-time Visual Inference for IoVT Systems: A Co-design Framework of Neural Networks and Edge Deployment [61.20689382879937]
タスク指向エッジコンピューティングは、データ分析をエッジにシフトすることで、この問題に対処する。
既存の手法は、高いモデル性能と低いリソース消費のバランスをとるのに苦労している。
ニューラルネットワークアーキテクチャを最適化する新しい協調設計フレームワークを提案する。
論文 参考訳(メタデータ) (2024-10-29T19:02:54Z) - Quasi-orthogonality and intrinsic dimensions as measures of learning and
generalisation [55.80128181112308]
ニューラルネットワークの特徴空間の次元性と準直交性は、ネットワークの性能差別と共同して機能する可能性があることを示す。
本研究は, ネットワークの最終的な性能と, ランダムに初期化された特徴空間の特性との関係を示唆する。
論文 参考訳(メタデータ) (2022-03-30T21:47:32Z) - Adaptive Surface Normal Constraint for Depth Estimation [102.7466374038784]
アダプティブサーフェスノーマル(ASN)制約と呼ばれるシンプルで効果的な手法を導入し、深さ推定と幾何学的一貫性を相関させます。
本手法は3次元形状を忠実に再構成でき,境界,鋭角,雑音などの局所形状変化に頑健である。
論文 参考訳(メタデータ) (2021-03-29T10:36:25Z) - Learning Connectivity of Neural Networks from a Topological Perspective [80.35103711638548]
本稿では,ネットワークを解析のための完全なグラフに表現するためのトポロジ的視点を提案する。
接続の規模を反映したエッジに学習可能なパラメータを割り当てることにより、学習プロセスを異なる方法で行うことができる。
この学習プロセスは既存のネットワークと互換性があり、より大きな検索空間と異なるタスクへの適応性を持っている。
論文 参考訳(メタデータ) (2020-08-19T04:53:31Z) - Data-driven effective model shows a liquid-like deep learning [2.0711789781518752]
バイナリシナプスの深いネットワークの状況は、まだ分かっていない。
本稿では,高次元重み空間の最小構造モデルを直接構築することにより,統計力学の枠組みを提案する。
我々のデータ駆動モデルは、高次元の重み空間においてディープラーニングが不合理に有効である理由に関する統計力学的な知見を提供する。
論文 参考訳(メタデータ) (2020-07-16T04:02:48Z) - Dataless Model Selection with the Deep Frame Potential [45.16941644841897]
ネットワークをその固有の能力で定量化し、ユニークでロバストな表現を行う。
本稿では,表現安定性にほぼ関係するが,ネットワーク構造にのみ依存する最小限のコヒーレンス尺度であるディープフレームポテンシャルを提案する。
モデル選択の基準としての利用を検証するとともに,ネットワークアーキテクチャの多種多様な残差および密結合化について,一般化誤差との相関性を示す。
論文 参考訳(メタデータ) (2020-03-30T23:27:25Z) - Local Propagation in Constraint-based Neural Network [77.37829055999238]
ニューラルネットワークアーキテクチャの制約に基づく表現について検討する。
本稿では,いわゆるアーキテクチャ制約を満たすのに適した簡単な最適化手法について検討する。
論文 参考訳(メタデータ) (2020-02-18T16:47:38Z) - A deep learning approach for the computation of curvature in the
level-set method [0.0]
そこで本研究では,2次元暗黙曲線の平均曲率をレベルセット法で推定する手法を提案する。
我々のアプローチは、様々な解像度の均一な格子に没入した円柱から構築された合成データセットにフィードフォワードニューラルネットワークを適合させることに基づいている。
論文 参考訳(メタデータ) (2020-02-04T00:49:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。