論文の概要: Taming Discrete Integration via the Boon of Dimensionality
- arxiv url: http://arxiv.org/abs/2010.10724v1
- Date: Wed, 21 Oct 2020 02:32:51 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-04 23:25:12.674882
- Title: Taming Discrete Integration via the Boon of Dimensionality
- Title(参考訳): 次元のボオンによる離散的積分の改ざん
- Authors: Jeffrey M. Dudek, Dror Fried, Kuldeep S. Meel
- Abstract要約: 本稿では,離散積分をモデルカウントに効率よく還元する手法を提案する。
ニューラルネットワーク検証ドメインから生じるベンチマークに対して、詳細な実験分析を行う。
DeWeightは、このクラスのベンチマークに対して証明可能な保証で見積もりを計算する最初のテクニックである。
- 参考スコア(独自算出の注目度): 36.55732373661026
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Discrete integration is a fundamental problem in computer science that
concerns the computation of discrete sums over exponentially large sets.
Despite intense interest from researchers for over three decades, the design of
scalable techniques for computing estimates with rigorous guarantees for
discrete integration remains the holy grail. The key contribution of this work
addresses this scalability challenge via an efficient reduction of discrete
integration to model counting. The proposed reduction is achieved via a
significant increase in the dimensionality that, contrary to conventional
wisdom, leads to solving an instance of the relatively simpler problem of model
counting.
Building on the promising approach proposed by Chakraborty et al, our work
overcomes the key weakness of their approach: a restriction to dyadic weights.
We augment our proposed reduction, called DeWeight, with a state of the art
efficient approximate model counter and perform detailed empirical analysis
over benchmarks arising from neural network verification domains, an emerging
application area of critical importance. DeWeight, to the best of our
knowledge, is the first technique to compute estimates with provable guarantees
for this class of benchmarks.
- Abstract(参考訳): 離散積分は、指数関数的に大きな集合に対する離散和の計算に関するコンピュータ科学の基本的な問題である。
30年以上にわたる研究者の強い関心にもかかわらず、離散統合に対する厳密な保証を伴う計算見積もりのためのスケーラブルな技術の設計は依然として聖杯である。
この研究の重要な貢献は、離散的な統合をモデルカウントに効率的に還元することで、このスケーラビリティの課題に対処する。
提案手法は, 従来の知識とは対照的に, 比較的単純なモデルカウント問題の例を解決できるような, 次元の大幅な増加によって実現されている。
Chakrabortyらによって提案された有望なアプローチに基づいて、我々の研究は彼らのアプローチの重要な弱点を克服している。
我々は,提案手法であるdeweight(deweight)を最先端の近似モデルカウンタで拡張し,ニューラルネットワーク検証ドメインから生じるベンチマークについて詳細な経験的解析を行う。
私たちの知る限りでは、DeWeightはこの種のベンチマークの証明可能な保証で見積もりを計算する最初のテクニックです。
関連論文リスト
- Neighbor-Aware Calibration of Segmentation Networks with Penalty-Based
Constraints [19.897181782914437]
本稿では,ロジット値の等式制約に基づく基本的かつ単純な解を提案し,強制制約と罰則の重みを明示的に制御する。
我々のアプローチは、広範囲のディープセグメンテーションネットワークのトレーニングに利用できる。
論文 参考訳(メタデータ) (2024-01-25T19:46:57Z) - Exploring Unified Perspective For Fast Shapley Value Estimation [77.15924044466976]
共有値の単純かつ効率的な推定法であるSimSHAPを提案する。
実験により,SimSHAPの有効性が検証され,精度の高いShapley値の計算が大幅に高速化された。
論文 参考訳(メタデータ) (2023-11-02T06:09:24Z) - Equation Discovery with Bayesian Spike-and-Slab Priors and Efficient
Kernels [60.35011738807833]
ケルネル学習とBayesian Spike-and-Slab pres (KBASS)に基づく新しい方程式探索法を提案する。
カーネルレグレッションを用いてターゲット関数を推定する。これはフレキシブルで表現力があり、データ空間やノイズに対してより堅牢である。
我々は、ベンチマークODEとPDE発見タスクのリストにおいて、KBASSの顕著な利点を示す。
論文 参考訳(メタデータ) (2023-10-09T03:55:09Z) - An Optimization-based Deep Equilibrium Model for Hyperspectral Image
Deconvolution with Convergence Guarantees [71.57324258813675]
本稿では,ハイパースペクトル画像のデコンボリューション問題に対処する新しい手法を提案する。
新しい最適化問題を定式化し、学習可能な正規化器をニューラルネットワークの形で活用する。
導出した反復解法は、Deep Equilibriumフレームワーク内の不動点計算問題として表現される。
論文 参考訳(メタデータ) (2023-06-10T08:25:16Z) - Trust your neighbours: Penalty-based constraints for model calibration [19.437451462590108]
SVLSの制約付き最適化の観点を示し、周辺画素のソフトクラス比に暗黙の制約を課すことを示した。
本稿では,ロジット値の等式制約に基づく基本的かつ単純な解を提案し,強制制約と罰則の重みを明示的に制御する。
論文 参考訳(メタデータ) (2023-03-11T01:10:26Z) - On Robust Numerical Solver for ODE via Self-Attention Mechanism [82.95493796476767]
我々は,内在性雑音障害を緩和し,AIによって強化された数値解法を,データサイズを小さくする訓練について検討する。
まず,教師付き学習における雑音を制御するための自己認識機構の能力を解析し,さらに微分方程式の数値解に付加的な自己認識機構を導入し,簡便かつ有効な数値解法であるAttrを提案する。
論文 参考訳(メタデータ) (2023-02-05T01:39:21Z) - Toward Certified Robustness Against Real-World Distribution Shifts [65.66374339500025]
我々は、データから摂動を学ぶために生成モデルを訓練し、学習したモデルの出力に関して仕様を定義する。
この設定から生じるユニークな挑戦は、既存の検証者がシグモイドの活性化を厳密に近似できないことである。
本稿では,古典的な反例誘導的抽象的洗練の概念を活用するシグモイドアクティベーションを扱うための一般的なメタアルゴリズムを提案する。
論文 参考訳(メタデータ) (2022-06-08T04:09:13Z) - Efficient Inference via Universal LSH Kernel [35.22983601434134]
本稿では,単純なハッシュ計算と集約で推論手順を近似できる数列の簡潔な集合である,数学的に証明可能なRepresenter Sketchを提案する。
Representer Sketchは、カーネル文学から人気のあるRepresenter Theoremの上に構築されている。
本研究では,Representer Sketchによるストレージ要件の最大114倍,複雑性の最大59倍を精度の低下なく達成できることを示す。
論文 参考訳(メタデータ) (2021-06-21T22:06:32Z) - Progressive Batching for Efficient Non-linear Least Squares [31.082253632197023]
ガウス・ニュートンの基本的な改良のほとんどは、基礎となる問題構造の空間性を保証するか、あるいは活用して計算速度を上げることである。
我々の研究は、機械学習と統計の両方からアイデアを借用し、収束を保証するとともに、必要な計算量を大幅に削減する非線形最小二乗に対するアプローチを提案する。
論文 参考訳(メタデータ) (2020-10-21T13:00:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。