論文の概要: Ontology Neural Networks for Topologically Conditioned Constraint Satisfaction
- arxiv url: http://arxiv.org/abs/2601.05304v1
- Date: Thu, 08 Jan 2026 18:01:52 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-12 17:41:49.743456
- Title: Ontology Neural Networks for Topologically Conditioned Constraint Satisfaction
- Title(参考訳): 位相条件付き制約満足度のためのオントロジーニューラルネットワーク
- Authors: Jaehong Oh,
- Abstract要約: トポロジカルコンディショニングと勾配安定化機構を統合した拡張フレームワークを提案する。
このフレームワークは、シード非依存の収束と、20ノード問題までの優雅なスケーリング挙動を示す。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Neuro-symbolic reasoning systems face fundamental challenges in maintaining semantic coherence while satisfying physical and logical constraints. Building upon our previous work on Ontology Neural Networks, we present an enhanced framework that integrates topological conditioning with gradient stabilization mechanisms. The approach employs Forman-Ricci curvature to capture graph topology, Deep Delta Learning for stable rank-one perturbations during constraint projection, and Covariance Matrix Adaptation Evolution Strategy for parameter optimization. Experimental evaluation across multiple problem sizes demonstrates that the method achieves mean energy reduction to 1.15 compared to baseline values of 11.68, with 95 percent success rate in constraint satisfaction tasks. The framework exhibits seed-independent convergence and graceful scaling behavior up to twenty-node problems, suggesting that topological structure can inform gradient-based optimization without sacrificing interpretability or computational efficiency.
- Abstract(参考訳): ニューロシンボリック推論システムは、物理的および論理的制約を満たしながらセマンティックコヒーレンスを維持するという根本的な課題に直面している。
オントロジーニューラルネットワークに関するこれまでの研究に基づいて、トポロジ的条件付けと勾配安定化機構を統合した拡張フレームワークを提案する。
このアプローチでは、グラフトポロジのキャプチャにForman-Ricci曲率、制約射影中の安定したランク1の摂動にDeep Delta Learning、パラメータ最適化にCovariance Matrix Adaptation Evolution Strategyを用いる。
複数の問題サイズにまたがる実験により, 基準値11.68よりも平均エネルギーを1.15に削減し, 制約満足度タスクで95%の成功率を示した。
このフレームワークは、20ノード問題までの種非依存の収束と優雅なスケーリング挙動を示し、トポロジカルな構造が、解釈可能性や計算効率を犠牲にすることなく勾配に基づく最適化を通知できることを示唆している。
関連論文リスト
- Topologically-Stabilized Graph Neural Networks: Empirical Robustness Across Domains [0.0]
グラフニューラルネットワーク(GNN)はグラフ表現学習の標準となっているが、構造的摂動に弱いままである。
本稿では、永続的ホモロジー特徴と安定性の正則化を統合し、堅牢性を高める新しいフレームワークを提案する。
提案手法は, 競争精度を維持しつつ, エッジ摂動に対して極めて頑健であることを示す。
論文 参考訳(メタデータ) (2025-12-15T19:39:11Z) - On the Stability of Neural Networks in Deep Learning [3.843574434245427]
この論文は、ニューラルネットワークが入力レベルとパラメータレベルの両方の摂動にどのように反応するかを考察する。
リプシッツネットワークを摂動に対する感度を制約する原理的な方法として検討し、一般化、対向強靭性、訓練安定性を改善する。
論文 参考訳(メタデータ) (2025-10-29T08:38:43Z) - Revisiting Zeroth-Order Optimization: Minimum-Variance Two-Point Estimators and Directionally Aligned Perturbations [57.179679246370114]
乱摂動の分布は, 摂動段差がゼロになる傾向にあるため, 推定子の分散を最小限に抑える。
以上の結果から, 一定の長さを維持するのではなく, 真の勾配に方向を合わせることが可能であることが示唆された。
論文 参考訳(メタデータ) (2025-10-22T19:06:39Z) - A Neural Network for the Identical Kuramoto Equation: Architectural Considerations and Performance Evaluation [0.0]
同一振動子倉本モデルから導かれる非局所保存法の解法を近似するためのディープニューラルネットワーク(DNN)の効率について検討する。
ネットワーク構成パラメータが収束特性に影響を与えることを示す。
我々は,一意的あるいは一意的な解を扱う際に,標準フィードフォワードアーキテクチャの基本的限界を特定する。
論文 参考訳(メタデータ) (2025-09-17T19:37:01Z) - Certified Neural Approximations of Nonlinear Dynamics [51.01318247729693]
安全クリティカルな文脈では、神経近似の使用は、基礎となるシステムとの密接性に公式な境界を必要とする。
本稿では,認証された一階述語モデルに基づく新しい,適応的で並列化可能な検証手法を提案する。
論文 参考訳(メタデータ) (2025-05-21T13:22:20Z) - Tuning for Trustworthiness -- Balancing Performance and Explanation Consistency in Neural Network Optimization [49.567092222782435]
我々は,異なる特徴帰属法間の合意として定義された,XAI整合性という新しい概念を紹介する。
予測性能と説明のバランスをとる多目的最適化フレームワークを構築した。
本研究は、トレードオフゾーンバランス性能損失とXAI整合性による強靭性向上のモデルについて、今後の研究基盤を提供する。
論文 参考訳(メタデータ) (2025-05-12T13:19:14Z) - A Dynamical Systems-Inspired Pruning Strategy for Addressing Oversmoothing in Graph Neural Networks [18.185834696177654]
グラフニューラルネットワーク(GNN)のオーバースムース化は、ネットワークの深さが増加するにつれて大きな課題となる。
オーバースムーシングの根本原因を特定し,textbftextitDYNAMO-GATを提案する。
我々の理論的分析は、DYNAMO-GATが過密状態への収束を妨げていることを示している。
論文 参考訳(メタデータ) (2024-12-10T07:07:06Z) - Super Level Sets and Exponential Decay: A Synergistic Approach to Stable Neural Network Training [0.0]
指数減衰と高度な反オーバーフィッティング戦略を統合する動的学習率アルゴリズムを開発した。
適応学習率の影響を受けて、損失関数の超レベル集合が常に連結であることを証明する。
論文 参考訳(メタデータ) (2024-09-25T09:27:17Z) - Adaptive Federated Learning Over the Air [108.62635460744109]
オーバー・ザ・エア・モデル・トレーニングの枠組みの中で,適応勾配法,特にAdaGradとAdamの連合バージョンを提案する。
解析の結果,AdaGrad に基づくトレーニングアルゴリズムは $mathcalO(ln(T) / T 1 - frac1alpha の速度で定常点に収束することがわかった。
論文 参考訳(メタデータ) (2024-03-11T09:10:37Z) - Stability and Generalization Analysis of Gradient Methods for Shallow
Neural Networks [59.142826407441106]
本稿では,アルゴリズム安定性の概念を活用して,浅層ニューラルネットワーク(SNN)の一般化挙動について検討する。
我々は、SNNを訓練するために勾配降下(GD)と勾配降下(SGD)を考慮する。
論文 参考訳(メタデータ) (2022-09-19T18:48:00Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。