論文の概要: Neuron Block Dynamics for XOR Classification with Zero-Margin
- arxiv url: http://arxiv.org/abs/2602.00172v1
- Date: Fri, 30 Jan 2026 01:29:11 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-03 19:28:33.026271
- Title: Neuron Block Dynamics for XOR Classification with Zero-Margin
- Title(参考訳): ゼロマージンを用いたXOR分類のためのニューロンブロックダイナミクス
- Authors: Guillaume Braun, Masaaki Imaizumi,
- Abstract要約: ガウスXOR問題を解析してゼロマージン非線形分類を研究する。
無視できないデータの断片は境界に任意に近づき、標準のマージンベースの議論を破る。
ニューロンは4方向に集束し、ブロックレベルの信号はコヒーレントに進化することを示す。
- 参考スコア(独自算出の注目度): 8.878565282350413
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The ability of neural networks to learn useful features through stochastic gradient descent (SGD) is a cornerstone of their success. Most theoretical analyses focus on regression or on classification tasks with a positive margin, where worst-case gradient bounds suffice. In contrast, we study zero-margin nonlinear classification by analyzing the Gaussian XOR problem, where inputs are Gaussian and the XOR decision boundary determines labels. In this setting, a non-negligible fraction of data lies arbitrarily close to the boundary, breaking standard margin-based arguments. Building on Glasgow's (2024) analysis, we extend the study of training dynamics from discrete to Gaussian inputs and develop a framework for the dynamics of neuron blocks. We show that neurons cluster into four directions and that block-level signals evolve coherently, a phenomenon essential in the Gaussian setting where individual neuron signals vary significantly. Leveraging this block perspective, we analyze generalization without relying on margin assumptions, adopting an average-case view that distinguishes regions of reliable prediction from regions of persistent error. Numerical experiments confirm the predicted two-phase block dynamics and demonstrate their robustness beyond the Gaussian setting.
- Abstract(参考訳): 確率勾配降下(SGD)を通じて有用な特徴を学習するニューラルネットワークの能力は、その成功の基盤となっている。
最も理論的な分析は回帰や正のマージンを持つ分類タスクに焦点を合わせており、最悪の場合の勾配は十分である。
対照的に、入力がガウスであり、XOR決定境界がラベルを決定するガウスのXOR問題を解析してゼロマージン非線形分類を研究する。
この設定では、無視できないデータの断片は境界に任意に近づき、標準のマージンベースの議論を破る。
グラスゴー(2024年)の分析に基づいて、離散入力からガウス入力へのトレーニングダイナミクスの研究を拡張し、ニューロンブロックのダイナミックスのための枠組みを開発する。
我々は,ニューロンが4方向に集束し,ブロックレベルの信号がコヒーレントに進化することを示し,個々のニューロン信号が著しく変化するガウス的環境において重要な現象である。
このブロックパースペクティブを活用することで、マージンの仮定を頼らずに一般化を分析し、信頼できる予測領域と永続的なエラー領域を区別する平均ケースビューを採用する。
数値実験により予測された二相ブロックの力学が確認され、ガウス条件を超えて頑健性を示す。
関連論文リスト
- The late-stage training dynamics of (stochastic) subgradient descent on homogeneous neural networks [2.1178416840822027]
均質ニューラルネットワークによる分類の設定について考察する。
正規化SGD反復は、後期訓練において、正規化マージンの臨界点の集合に収束することを示す。
論文 参考訳(メタデータ) (2025-02-08T19:09:16Z) - Convergence analysis of wide shallow neural operators within the framework of Neural Tangent Kernel [4.313136216120379]
我々は、ニューラルタンジェントカーネル(NTK)の枠組み内で、広い浅層ニューラル演算子と物理インフォームド浅部ニューラル演算子の勾配降下の収束解析を行う。
過度なパラメータ化の設定の下では、勾配降下は連続時間であるか離散時間であるかに関わらず、大域的な最小値を見つけることができる。
論文 参考訳(メタデータ) (2024-12-07T05:47:28Z) - A Neural Collapse Perspective on Feature Evolution in Graph Neural
Networks [44.31777384413466]
グラフニューラルネットワーク(GNN)は、グラフ構造化データの分類タスクでますます人気が高まっている。
本稿では,ノードワイズ分類に着目し,ニューラル崩壊現象のレンズによる特徴進化を考察する。
我々は、「最適」な数学的モデルでさえ、グラフが正確な崩壊を伴う最小値を持つためには厳密な構造条件に従う必要があることを示した。
論文 参考訳(メタデータ) (2023-07-04T23:03:21Z) - Sampling from Gaussian Process Posteriors using Stochastic Gradient
Descent [43.097493761380186]
勾配アルゴリズムは線形系を解くのに有効な方法である。
最適値に収束しない場合であっても,勾配降下は正確な予測を導出することを示す。
実験的に、勾配降下は十分に大規模または不条件の回帰タスクにおいて最先端の性能を達成する。
論文 参考訳(メタデータ) (2023-06-20T15:07:37Z) - Learning Linear Causal Representations from Interventions under General
Nonlinear Mixing [52.66151568785088]
介入対象にアクセスできることなく、未知の単一ノード介入を考慮し、強い識別可能性を示す。
これは、ディープニューラルネットワークの埋め込みに対する非ペアの介入による因果識別性の最初の例である。
論文 参考訳(メタデータ) (2023-06-04T02:32:12Z) - Stability and Generalization Analysis of Gradient Methods for Shallow
Neural Networks [59.142826407441106]
本稿では,アルゴリズム安定性の概念を活用して,浅層ニューラルネットワーク(SNN)の一般化挙動について検討する。
我々は、SNNを訓練するために勾配降下(GD)と勾配降下(SGD)を考慮する。
論文 参考訳(メタデータ) (2022-09-19T18:48:00Z) - And/or trade-off in artificial neurons: impact on adversarial robustness [91.3755431537592]
ネットワークに十分な数のOR様ニューロンが存在すると、分類の脆さと敵の攻撃に対する脆弱性が増加する。
そこで我々は,AND様ニューロンを定義し,ネットワーク内での割合を増大させる対策を提案する。
MNISTデータセットによる実験結果から,本手法はさらなる探索の方向として有望であることが示唆された。
論文 参考訳(メタデータ) (2021-02-15T08:19:05Z) - Binary Classification of Gaussian Mixtures: Abundance of Support
Vectors, Benign Overfitting and Regularization [39.35822033674126]
生成ガウス混合モデルに基づく二項線形分類について検討する。
後者の分類誤差に関する新しい非漸近境界を導出する。
この結果は, 確率が一定である雑音モデルに拡張される。
論文 参考訳(メタデータ) (2020-11-18T07:59:55Z) - Stochastic Graph Neural Networks [123.39024384275054]
グラフニューラルネットワーク(GNN)は、分散エージェント調整、制御、計画に応用したグラフデータの非線形表現をモデル化する。
現在のGNNアーキテクチャは理想的なシナリオを前提として,環境やヒューマンファクタ,あるいは外部攻撃によるリンク変動を無視している。
これらの状況において、GNNは、トポロジカルなランダム性を考慮していない場合、その分散タスクに対処することができない。
論文 参考訳(メタデータ) (2020-06-04T08:00:00Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。