論文の概要: A Note on Non-Composability of Layerwise Approximate Verification for Neural Inference
- arxiv url: http://arxiv.org/abs/2602.15756v1
- Date: Tue, 17 Feb 2026 17:41:59 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-18 16:03:18.144405
- Title: A Note on Non-Composability of Layerwise Approximate Verification for Neural Inference
- Title(参考訳): 階層的近似検証のニューラル推論における非可逆性に関する一考察
- Authors: Or Zamir,
- Abstract要約: 浮動小数点データに対する検証可能な(あるいはゼロ知識の)ML推論に対する自然な非公式なアプローチは、各層がトレランス$$$'まで正しく計算されたことを証明している。
この短いメモは、この推論が一般に偽であることを示す単純な反例を与える。
任意のニューラルネットワークに対して、各層計算における逆向きに選択された近似-マグニチュード誤差が、最終的な出力を任意に制御するのに十分である機能的に等価なネットワークを構築することができる。
- 参考スコア(独自算出の注目度): 0.9848252984349601
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: A natural and informal approach to verifiable (or zero-knowledge) ML inference over floating-point data is: ``prove that each layer was computed correctly up to tolerance $δ$; therefore the final output is a reasonable inference result''. This short note gives a simple counterexample showing that this inference is false in general: for any neural network, we can construct a functionally equivalent network for which adversarially chosen approximation-magnitude errors in individual layer computations suffice to steer the final output arbitrarily (within a prescribed bounded range).
- Abstract(参考訳): 浮動小数点データに対する検証(あるいはゼロ知識)ML推論に対する自然な非公式なアプローチは、以下のとおりである。
このショートノートは、この推論が一般に偽であることを示す単純な反例を示し、任意のニューラルネットワークに対して、個々の層計算において逆選択された近似-マグニチュード誤差が任意に(所定の有界範囲で)最終的な出力を操るのに十分である機能的に等価なネットワークを構築することができる。
関連論文リスト
- Inference Scaling fLaws: The Limits of LLM Resampling with Imperfect Verifiers [13.823743787003787]
近年の研究では、推論スケーリングにより、より弱い言語モデルがより強力なモデルの精度に適合または超えることを期待している。
より弱いモデルの推論スケーリングの量は、十分に強いモデルの単一サンプル精度に匹敵することができないことを示す。
また、精度以上の偽陽性には、コーディングスタイルの慣行への順守の欠如など、他の望ましくない性質があることも示している。
論文 参考訳(メタデータ) (2024-11-26T15:13:06Z) - Amortised Inference in Neural Networks for Small-Scale Probabilistic
Meta-Learning [41.85464593920907]
BNNに対する大域的変分近似は、一連の条件分布を構成するために一連のインジェクションインプットを使用する。
我々の重要な洞察は、これらのインプットを実際のデータに置き換えることができ、変動分布は各データポイントに対して近似的な確率の集合からなることである。
この推論ネットワークを関連するデータセット間でトレーニングすることにより、タスク固有のBNNに対するメタ学習ベイズ推論が可能になる。
論文 参考訳(メタデータ) (2023-10-24T12:34:25Z) - Resampled Confidence Regions with Exponential Shrinkage for the Regression Function of Binary Classification [0.0]
我々は,再サンプリングテストに基づいて,任意のユーザ・センサ信頼度レベルと有限サンプルサイズに対する回帰関数の分布自由信頼領域を構築した。
有限擬次元および逆リプシッツパラメータ化を持つモデルクラスに対する新しい経験的リスクベースアプローチの強い均一性を証明する。
また、k-ネアレスト近傍法についても検討し、排除の確率に基づいて強い点を有界に証明する。
論文 参考訳(メタデータ) (2023-08-03T15:52:27Z) - Semantic Strengthening of Neuro-Symbolic Learning [85.6195120593625]
ニューロシンボリックアプローチは一般に確率論的目的のファジィ近似を利用する。
トラクタブル回路において,これを効率的に計算する方法を示す。
我々は,Warcraftにおける最小コストパスの予測,最小コスト完全マッチングの予測,スドクパズルの解法という3つの課題に対して,アプローチを検証した。
論文 参考訳(メタデータ) (2023-02-28T00:04:22Z) - On the Effective Number of Linear Regions in Shallow Univariate ReLU
Networks: Convergence Guarantees and Implicit Bias [50.84569563188485]
我々は、ラベルが$r$のニューロンを持つターゲットネットワークの符号によって決定されるとき、勾配流が方向収束することを示す。
我々の結果は、標本サイズによらず、幅が$tildemathcalO(r)$である、緩やかなオーバーパラメータ化をすでに維持しているかもしれない。
論文 参考訳(メタデータ) (2022-05-18T16:57:10Z) - NUQ: Nonparametric Uncertainty Quantification for Deterministic Neural
Networks [151.03112356092575]
本研究では,Nadaraya-Watson の条件付きラベル分布の非パラメトリック推定に基づく分類器の予測の不確かさの測定方法を示す。
種々の実世界の画像データセットにおける不確実性推定タスクにおいて,本手法の強い性能を示す。
論文 参考訳(メタデータ) (2022-02-07T12:30:45Z) - On Codomain Separability and Label Inference from (Noisy) Loss Functions [11.780563744330038]
本稿では,任意の(ノイズの多い)損失関数値からラベル推論が可能となる必要かつ十分な条件を検討するために,コドメイン分離性の概念を導入する。
一般的なアクティベーション機能を持つマルチクラスクロスエントロピーや,ブレグマンの発散に基づく損失を含む,多くの一般的な損失関数に対して,任意の雑音レベルに対するラベル推論攻撃を設計可能であることを示す。
論文 参考訳(メタデータ) (2021-07-07T05:29:53Z) - Predicting Unreliable Predictions by Shattering a Neural Network [145.3823991041987]
線形ニューラルネットワークは、サブファンクションに分割することができる。
サブファンクションは、独自のアクティベーションパターン、ドメイン、経験的エラーを持っている。
完全なネットワークに対する経験的エラーは、サブファンクションに対する期待として記述できる。
論文 参考訳(メタデータ) (2021-06-15T18:34:41Z) - Finding hidden-feature depending laws inside a data set and classifying
it using Neural Network [0.0]
ニューラルネットワークのlogcosh損失関数は、異常値の重み付けを行わない絶対誤差損失関数の利点と、平均付近における連続微分の平均二乗誤差の利点を組み合わせるために開発された。
本研究は,logcosh損失を持つ人工ニューラルネットワークを用いてパラメータ-アウトカムサンプルセットのセット値マッピングの分岐を探索し,それらの分岐に従ってサンプルを分類する手法を提案する。
論文 参考訳(メタデータ) (2021-01-25T21:37:37Z) - Amortized Conditional Normalized Maximum Likelihood: Reliable Out of
Distribution Uncertainty Estimation [99.92568326314667]
本研究では,不確実性推定のための拡張性のある汎用的アプローチとして,償却条件正規化最大値(ACNML)法を提案する。
提案アルゴリズムは条件付き正規化最大度(CNML)符号化方式に基づいており、最小記述長の原理に従って最小値の最適特性を持つ。
我々は、ACNMLが、分布外入力のキャリブレーションの観点から、不確実性推定のための多くの手法と好意的に比較することを示した。
論文 参考訳(メタデータ) (2020-11-05T08:04:34Z) - Log-Likelihood Ratio Minimizing Flows: Towards Robust and Quantifiable
Neural Distribution Alignment [52.02794488304448]
そこで本研究では,対数様比統計量と正規化フローに基づく新しい分布アライメント手法を提案する。
入力領域の局所構造を保存する領域アライメントにおいて,結果の最小化を実験的に検証する。
論文 参考訳(メタデータ) (2020-03-26T22:10:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。