論文の概要: Optimal Abstractions for Verifying Properties of Kolmogorov-Arnold Networks (KANs)
- arxiv url: http://arxiv.org/abs/2602.06737v1
- Date: Fri, 06 Feb 2026 14:33:41 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-09 22:18:26.424244
- Title: Optimal Abstractions for Verifying Properties of Kolmogorov-Arnold Networks (KANs)
- Title(参考訳): Kolmogorov-Arnold Networks(KANs)の特性検証のための最適抽象化
- Authors: Noah Schwartz, Chandra Kanth Nagesh, Sriram Sankaranarayanan, Ramneet Kaur, Tuhin Sahai, Susmit Jha,
- Abstract要約: コルモゴロフ・アルノルドネットワーク(KAN)の特性検証のための新しい手法を提案する。
我々の重要な貢献は、最適な抽象化を見つけるためにkan構造を利用する体系的なフレームワークである。
このアプローチは、全体的な精度要件を維持しながら、各ユニットの最適近似戦略を決定する。
- 参考スコア(独自算出の注目度): 8.114307305249929
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We present a novel approach for verifying properties of Kolmogorov-Arnold Networks (KANs), a class of neural networks characterized by nonlinear, univariate activation functions typically implemented as piecewise polynomial splines or Gaussian processes. Our method creates mathematical ``abstractions'' by replacing each KAN unit with a piecewise affine (PWA) function, providing both local and global error estimates between the original network and its approximation. These abstractions enable property verification by encoding the problem as a Mixed Integer Linear Program (MILP), determining whether outputs satisfy specified properties when inputs belong to a given set. A critical challenge lies in balancing the number of pieces in the PWA approximation: too many pieces add binary variables that make verification computationally intractable, while too few pieces create excessive error margins that yield uninformative bounds. Our key contribution is a systematic framework that exploits KAN structure to find optimal abstractions. By combining dynamic programming at the unit level with a knapsack optimization across the network, we minimize the total number of pieces while guaranteeing specified error bounds. This approach determines the optimal approximation strategy for each unit while maintaining overall accuracy requirements. Empirical evaluation across multiple KAN benchmarks demonstrates that the upfront analysis costs of our method are justified by superior verification results.
- Abstract(参考訳): 本稿では,KAN(Kolmogorov-Arnold Networks)の特性を検証する新しい手法を提案する。
提案手法は,各kanユニットをPWA関数に置換し,元のネットワークと近似との局所的および大域的誤差推定を行う。
これらの抽象化により、混合整数線形プログラム(MILP)として問題を符号化し、入力が与えられた集合に属するとき、出力が指定された特性を満たすかどうかを判断することで、プロパティ検証が可能になる。
重要な課題は、PWA近似における部品数のバランスをとることである: あまりに多くのピースは、検証を計算的に難解にするバイナリ変数を追加し、一方、過度なエラーマージンを生成し、非形式的境界を生じる。
我々の重要な貢献は、最適な抽象化を見つけるためにkan構造を利用する体系的なフレームワークである。
ユニットレベルでの動的プログラミングとネットワーク間のknapsack最適化を組み合わせることで、特定のエラー境界を保証しながら、部品の総数を最小化する。
このアプローチは、全体的な精度要件を維持しながら、各ユニットの最適近似戦略を決定する。
提案手法の先行解析コストは,より優れた検証結果によって正当化されることを示す。
関連論文リスト
- Closing the Approximation Gap of Partial AUC Optimization: A Tale of Two Formulations [121.39938773554523]
ROC曲線の下の領域(AUC)は、クラス不均衡と決定制約の両方を持つ実世界のシナリオにおける重要な評価指標である。
PAUC最適化の近似ギャップを埋めるために,2つの簡単なインスタンス単位のミニマックス修正を提案する。
得られたアルゴリズムは、サンプルサイズと典型的な一方方向と双方向のPAUCに対して$O(-2/3)$の収束率の線形パーイテレーション計算複雑性を享受する。
論文 参考訳(メタデータ) (2025-12-01T02:52:33Z) - Fast Bayesian Optimization of Function Networks with Partial Evaluations [7.688686113950605]
本稿では,クエリ効率をわずかに損なうことなく計算オーバーヘッドを削減する,高速化されたp-KGFNアルゴリズムを提案する。
我々のアプローチの鍵は、1つの安価なグローバルモンテカルロシミュレーションによってネットワークの各ノードに対してノード固有の候補入力を生成することである。
数値実験により,元のp-KGFNアルゴリズムの16倍の高速化を達成しつつ,競合クエリ効率を維持する。
論文 参考訳(メタデータ) (2025-06-13T04:20:36Z) - Decentralized Nonconvex Composite Federated Learning with Gradient Tracking and Momentum [78.27945336558987]
分散サーバ(DFL)はクライアント・クライアント・アーキテクチャへの依存をなくす。
非滑らかな正規化はしばしば機械学習タスクに組み込まれる。
本稿では,これらの問題を解決する新しいDNCFLアルゴリズムを提案する。
論文 参考訳(メタデータ) (2025-04-17T08:32:25Z) - Stochastic Optimization with Optimal Importance Sampling [49.484190237840714]
本稿では,両者の時間的分離を必要とせずに,意思決定とIS分布を共同で更新する反復型アルゴリズムを提案する。
本手法は,IS分布系に対する目的的,軽度な仮定の凸性の下で,最小の変数分散を達成し,大域収束を保証する。
論文 参考訳(メタデータ) (2025-04-04T16:10:18Z) - Multilevel CNNs for Parametric PDEs based on Adaptive Finite Elements [0.0]
高次元パラメータ依存偏微分方程式の多値性を利用するニューラルネットワークアーキテクチャが提案されている。
ネットワークは適応的に洗練された有限要素メッシュのデータで訓練される。
適応型マルチレベルスキームに対して完全収束と複雑性解析を行う。
論文 参考訳(メタデータ) (2024-08-20T13:32:11Z) - Global and Preference-based Optimization with Mixed Variables using Piecewise Affine Surrogates [0.6083861980670925]
本稿では,線形制約付き混合変数問題の解法として,新しいサロゲートに基づく大域的最適化アルゴリズムを提案する。
提案手法は, 目的関数の断片的なアフィンサロゲートを, 実現可能なサンプル上に構築することに基づいている。
この2つのアルゴリズムは、制約なしおよび制約付き混合変数ベンチマーク問題に対して評価される。
論文 参考訳(メタデータ) (2023-02-09T15:04:35Z) - End-to-End Pareto Set Prediction with Graph Neural Networks for
Multi-objective Facility Location [10.130342722193204]
施設配置問題(FLP)は、サプライチェーンやロジスティクスで広く見られるNPハード最適化問題の典型的なクラスである。
本稿では,システム全体のコストを同時に最小化し,システム信頼性を最大化する多目的施設配置問題(MO-FLP)について考察する。
ノードとエッジの暗黙グラフ表現を学習するために、2つのグラフニューラルネットワークを構築した。
論文 参考訳(メタデータ) (2022-10-27T07:15:55Z) - Efficient Neural Network Analysis with Sum-of-Infeasibilities [64.31536828511021]
凸最適化における総和係数法に着想を得て,広範な分岐関数を持つネットワーク上での検証クエリを解析するための新しい手法を提案する。
標準ケース分析に基づく完全探索手順の拡張は、各検索状態で実行される凸手順をDeepSoIに置き換えることによって達成できる。
論文 参考訳(メタデータ) (2022-03-19T15:05:09Z) - Distributed stochastic proximal algorithm with random reshuffling for
non-smooth finite-sum optimization [28.862321453597918]
非滑らかな有限サム最小化は機械学習の基本的な問題である。
本稿では,確率的リシャフリングを用いた分散近位勾配アルゴリズムを開発し,その問題の解法を提案する。
論文 参考訳(メタデータ) (2021-11-06T07:29:55Z) - Global Optimization of Objective Functions Represented by ReLU Networks [77.55969359556032]
ニューラルネットワークは複雑で非敵対的な関数を学ぶことができ、安全クリティカルな文脈でそれらの正しい振る舞いを保証することは困難である。
ネットワーク内の障害を見つけるための多くのアプローチ(例えば、敵の例)があるが、これらは障害の欠如を保証できない。
本稿では,最適化プロセスを検証手順に統合し,本手法よりも優れた性能を実現する手法を提案する。
論文 参考訳(メタデータ) (2020-10-07T08:19:48Z) - Adaptive Sampling for Best Policy Identification in Markov Decision
Processes [79.4957965474334]
本稿では,学習者が生成モデルにアクセスできる場合の,割引マルコフ決定(MDP)における最良の政治的識別の問題について検討する。
最先端アルゴリズムの利点を論じ、解説する。
論文 参考訳(メタデータ) (2020-09-28T15:22:24Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。