論文の概要: Just-In-Time Piecewise-Linear Semantics for ReLU-type Networks
- arxiv url: http://arxiv.org/abs/2510.17622v1
- Date: Mon, 20 Oct 2025 15:05:14 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-25 00:56:39.494496
- Title: Just-In-Time Piecewise-Linear Semantics for ReLU-type Networks
- Title(参考訳): ReLU型ネットワークのためのJust-In-Time Piecewise-Linear Semantics
- Authors: Hongyi Duan, Haoyang Liu, Jian'an Zhang, Fengrui Liu, Yiyi Wang,
- Abstract要約: 本稿では,Re-LU型ネットワークのためのJIT PLセマンティクスを提案し,モデルを共有ガード付きガード付きCPWLトランスデューサにコンパイルする。
完全精製細胞の音質, 単調進行, ガード-線形複雑度, 優位プルーニング, 有限精製条件下での決定可能性について検討した。
- 参考スコア(独自算出の注目度): 5.052384133195613
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We present a JIT PL semantics for ReLU-type networks that compiles models into a guarded CPWL transducer with shared guards. The system adds hyperplanes only when operands are affine on the current cell, maintains global lower/upper envelopes, and uses a budgeted branch-and-bound. We obtain anytime soundness, exactness on fully refined cells, monotone progress, guard-linear complexity (avoiding global $\binom{k}{2}$), dominance pruning, and decidability under finite refinement. The shared carrier supports region extraction, decision complexes, Jacobians, exact/certified Lipschitz, LP/SOCP robustness, and maximal causal influence. A minimal prototype returns certificates or counterexamples with cost proportional to visited subdomains.
- Abstract(参考訳): 本稿では,ReLU型ネットワークのためのJIT PLセマンティクスを提案し,モデルを共有ガード付きガード付きCPWLトランスデューサにコンパイルする。
このシステムは、オペランドが現在のセルにアフィンである場合にのみハイパープレーンを追加し、グローバルなロー/アップパーエンベロープを維持し、予算付きブランチ・アンド・バウンドを使用する。
完全精製細胞における音質, 単調進行, ガード-線形複雑性(グローバル$\binom{k}{2}$) , 支配プルーニング, 有限精製下での決定性について検討した。
共有キャリアは、地域抽出、決定複合体、ジャコビアン、正確/認証リプシッツ、LP/SOCPロバスト性、最大因果影響をサポートする。
最小限のプロトタイプは、訪問したサブドメインに比例したコストで証明書や反例を返す。
関連論文リスト
- On the Computational Complexity of Performative Prediction [59.584063949469645]
我々は、$$-performatively stable pointの計算がPPAD完全であることを示す。
我々の重要な技術的貢献の1つは、PPAD-hardnessの結果を一般的な凸領域に拡張することである。
論文 参考訳(メタデータ) (2026-01-28T02:26:35Z) - Neural Value Iteration [14.535957451368608]
本稿では,POMDの値関数をニューラルネットワークの有限集合として表現できることを示す。
この手法はオフラインの解法でもほぼ次元の解が得られる。
論文 参考訳(メタデータ) (2025-11-11T22:46:31Z) - ECLipsE-Gen-Local: Efficient Compositional Local Lipschitz Estimates for Deep Neural Networks [4.752559512511423]
リプシッツ定数は、摂動を入力するためのニューラルネットワークの堅牢性を証明するための鍵となる尺度である。
リプシッツ定数を推定する標準的な手法は、ネットワークサイズに劣る大きな行列半定プログラム(SDP)を解くことである。
本稿では,ディープフィードフォワードニューラルネットワークに対するタイトでスケーラブルなリプシッツ推定を行う合成フレームワークを提案する。
論文 参考訳(メタデータ) (2025-10-06T18:26:46Z) - FedSVD: Adaptive Orthogonalization for Private Federated Learning with LoRA [68.44043212834204]
Low-Rank Adaptation (LoRA) は、学習における言語モデルの効率的な微調整に広く用いられている。
Low-Rank Adaptation (LoRA) は、学習における言語モデルの効率的な微調整に広く用いられている。
論文 参考訳(メタデータ) (2025-05-19T07:32:56Z) - Towards a Sharp Analysis of Offline Policy Learning for $f$-Divergence-Regularized Contextual Bandits [49.96531901205305]
我々は$f$-divergence-regularized offline policy learningを分析する。
逆Kullback-Leibler (KL) の発散に対して、単極集中性の下での最初の$tildeO(epsilon-1)$サンプル複雑性を与える。
これらの結果は,$f$-divergence-regularized policy learningの包括的理解に向けて大きな一歩を踏み出したものと考えられる。
論文 参考訳(メタデータ) (2025-02-09T22:14:45Z) - Projection by Convolution: Optimal Sample Complexity for Reinforcement Learning in Continuous-Space MDPs [56.237917407785545]
本稿では,円滑なベルマン作用素を持つ連続空間マルコフ決定過程(MDP)の一般クラスにおいて,$varepsilon$-optimal Policyを学習する問題を考察する。
我々のソリューションの鍵となるのは、調和解析のアイデアに基づく新しい射影技術である。
我々の結果は、連続空間 MDP における2つの人気と矛盾する視点のギャップを埋めるものである。
論文 参考訳(メタデータ) (2024-05-10T09:58:47Z) - REBEL: Reinforcement Learning via Regressing Relative Rewards [59.68420022466047]
生成モデルの時代における最小限のRLアルゴリズムであるREBELを提案する。
理論的には、自然ポリシーグラディエントのような基本的なRLアルゴリズムはREBELの変種と見なすことができる。
我々はREBELが言語モデリングと画像生成に一貫したアプローチを提供し、PPOやDPOとより強くあるいは類似した性能を実現することを発見した。
論文 参考訳(メタデータ) (2024-04-25T17:20:45Z) - Monotone, Bi-Lipschitz, and Polyak-Lojasiewicz Networks [10.22454500514559]
本稿では,バイリプシチブル・インバータブルニューラルネットワークであるBiLipNetを提案する。
リプシッツネスと逆リプシッツネスの両方を円滑に制御することができる。
論文 参考訳(メタデータ) (2024-02-02T12:02:42Z) - Novel Quadratic Constraints for Extending LipSDP beyond Slope-Restricted
Activations [52.031701581294804]
ニューラルネットワークのリプシッツ境界は、高い時間保存保証で計算できる。
このギャップを埋めて,リプシッツを傾斜制限活性化関数を超えて拡張する。
提案した解析は一般であり、$ell$ および $ell_infty$ Lipschitz 境界を推定するための統一的なアプローチを提供する。
論文 参考訳(メタデータ) (2024-01-25T09:23:31Z) - Offline Reinforcement Learning via Linear-Programming with Error-Bound Induced Constraints [26.008426384903764]
オフライン強化学習(RL)は、事前に収集されたデータセットを使用して、マルコフ決定プロセス(MDP)の最適ポリシーを見つけることを目的としている。
本研究では,オフラインRLにおけるマルコフ決定過程の線形プログラミング (LP) の再検討を行う。
論文 参考訳(メタデータ) (2022-12-28T15:28:12Z) - Rethinking Lipschitz Neural Networks for Certified L-infinity Robustness [33.72713778392896]
我々はブール関数を表す新しい視点から、認証された$ell_infty$について研究する。
我々は、先行研究を一般化する統一的なリプシッツネットワークを開発し、効率的に訓練できる実用的なバージョンを設計する。
論文 参考訳(メタデータ) (2022-10-04T17:55:27Z) - Recovery Guarantees for Distributed-OMP [8.393317912360564]
高次元スパース線形回帰のための分散スキームについて検討する。
分散OMPスキームは, 分散OMP方式により, マシン単位の線形通信による回帰ベクトルの支持を回復し, 空間的・対数的次元で表す。
シミュレーションにより,分散OMP方式はより計算集約的な手法と競合することを示した。
論文 参考訳(メタデータ) (2022-09-15T11:43:33Z) - Online Sub-Sampling for Reinforcement Learning with General Function
Approximation [111.01990889581243]
本稿では,RLアルゴリズムによって収集されたデータポイントの情報取得量を測定する,効率的なオンラインサブサンプリングフレームワークを確立する。
複雑性バウンド関数クラスを持つ値ベースのメソッドの場合、$proptooperatornamepolylog(K)$ timesに対してのみポリシーを更新する必要がある。
少なくとも$Omega(K)$倍のポリシーを更新する既存のアプローチとは対照的に、当社のアプローチはポリシーの解決における最適化コールの数を劇的に削減します。
論文 参考訳(メタデータ) (2021-06-14T07:36:25Z) - Algorithms and SQ Lower Bounds for PAC Learning One-Hidden-Layer ReLU
Networks [48.32532049640782]
ガウス境界の下で, 1層ReLUネットワークを$k$の隠れ単位で学習する問題をmathbbRd$で研究する。
正の係数の場合、この学習問題の初回アルゴリズムを$k$から$tildeOOmega(sqrtlog d)$まで与える。
論文 参考訳(メタデータ) (2020-06-22T17:53:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。