論文の概要: Verifiable Dropout: Turning Randomness into a Verifiable Claim
- arxiv url: http://arxiv.org/abs/2512.22526v1
- Date: Sat, 27 Dec 2025 09:14:35 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-30 22:37:30.098127
- Title: Verifiable Dropout: Turning Randomness into a Verifiable Claim
- Title(参考訳): 検証可能なドロップアウト:ランダム性を検証可能なクレームに変える
- Authors: Kichang Lee, Sungmin Lee, Jaeho Jin, JeongGil Ko,
- Abstract要約: ゼロ知識証明に基づくプライバシー保護機構であるVerifiable Dropoutを導入する。
提案手法は, ドロップアウトマスクを決定論的, 暗号的にシードに結合し, ドロップアウト動作の正しい実行を証明している。
この設計は、ユーザーがトレーニング手順の整合性を監査し、ランダムさがバイアスでもチェリーピックでもないことを保証します。
- 参考スコア(独自算出の注目度): 1.7476019497926718
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Modern cloud-based AI training relies on extensive telemetry and logs to ensure accountability. While these audit trails enable retrospective inspection, they struggle to address the inherent non-determinism of deep learning. Stochastic operations, such as dropout, create an ambiguity surface where attackers can mask malicious manipulations as natural random variance, granting them plausible deniability. Consequently, existing logging mechanisms cannot verify whether stochastic values were generated and applied honestly without exposing sensitive training data. To close this integrity gap, we introduce Verifiable Dropout, a privacy-preserving mechanism based on zero-knowledge proofs. We treat stochasticity not as an excuse but as a verifiable claim. Our approach binds dropout masks to a deterministic, cryptographically verifiable seed and proves the correct execution of the dropout operation. This design enables users to audit the integrity of stochastic training steps post-hoc, ensuring that randomness was neither biased nor cherry-picked, while strictly preserving the confidentiality of the model and data.
- Abstract(参考訳): 現代のクラウドベースのAIトレーニングは、説明責任を確保するために広範なテレメトリとログに依存している。
これらの監査パスは振り返り検査を可能にするが、深層学習の本質的な非決定論に対処するのに苦労する。
ドロップアウトのような確率的な操作はあいまいな表面を作り、攻撃者は悪質な操作を自然なランダムな分散として隠蔽し、妥当な識別性を与える。
その結果、既存のロギングメカニズムでは、機密データにこだわることなく確率値が生成され、正直に適用されたかどうかを検証できない。
この整合性ギャップを埋めるため,ゼロ知識証明に基づくプライバシー保護機構であるVerifiable Dropoutを導入する。
確率性は言い訳ではなく、検証可能な主張として扱う。
提案手法は, ドロップアウトマスクを決定論的, 暗号的に検証可能なシードに結合し, ドロップアウト動作の正しい実行を証明している。
この設計により、ユーザーは、確率的なトレーニングステップの整合性を監査し、ランダム性がバイアスやチェリーピックではなく、モデルとデータの機密性を厳格に保っていることを保証できる。
関連論文リスト
- Uncertainty-Driven Reliability: Selective Prediction and Trustworthy Deployment in Modern Machine Learning [1.2183405753834562]
この論文は、不確実性推定が機械学習(ML)システムの安全性と信頼性を高める方法について考察する。
まず、モデルのトレーニング軌道は、アーキテクチャの変更や損失を伴わずに活用できるような、豊富な不確実性信号を含むことを示す。
本稿では,タスク間で動作し,深層アンサンブルのコストを回避し,最先端の選択的予測性能を実現する軽量なポストホック禁忌手法を提案する。
論文 参考訳(メタデータ) (2025-08-11T02:33:53Z) - Confidential Guardian: Cryptographically Prohibiting the Abuse of Model Abstention [65.47632669243657]
不正直な機関は、不確実性の観点からサービスを差別または不正に否定する機構を利用することができる。
我々は、ミラージュと呼ばれる不確実性誘導攻撃を導入することで、この脅威の実践性を実証する。
本研究では,参照データセット上のキャリブレーションメトリクスを分析し,人工的に抑制された信頼度を検出するフレームワークであるConfidential Guardianを提案する。
論文 参考訳(メタデータ) (2025-05-29T19:47:50Z) - Leveraging Diffusion-Based Image Variations for Robust Training on
Poisoned Data [26.551317580666353]
バックドア攻撃は、ニューラルネットワークをトレーニングする上で深刻なセキュリティ上の脅威となる。
本稿では,近年の拡散モデルのパワーを生かして,潜在的に有毒なデータセットのモデルトレーニングを可能にする新しい手法を提案する。
論文 参考訳(メタデータ) (2023-10-10T07:25:06Z) - How adversarial attacks can disrupt seemingly stable accurate classifiers [76.95145661711514]
敵攻撃は、入力データに不連続な修正を加えることで、非正確な学習システムの出力を劇的に変化させる。
ここでは,これは高次元入力データを扱う分類器の基本的特徴であると考えられる。
実用システムで観測される重要な振る舞いを高い確率で発生させる、単純で汎用的なフレームワークを導入する。
論文 参考訳(メタデータ) (2023-09-07T12:02:00Z) - Reliability-Aware Prediction via Uncertainty Learning for Person Image
Retrieval [51.83967175585896]
UALは、データ不確実性とモデル不確実性を同時に考慮し、信頼性に配慮した予測を提供することを目的としている。
データ不確実性はサンプル固有のノイズを捕捉する」一方、モデル不確実性はサンプルの予測に対するモデルの信頼を表現している。
論文 参考訳(メタデータ) (2022-10-24T17:53:20Z) - Robust uncertainty estimates with out-of-distribution pseudo-inputs
training [0.0]
我々は、信頼性のあるデータを与えられていない不確実性予測器を明示的に訓練することを提案する。
データ無しでは訓練できないので、入力空間の情報的低密度領域において擬似入力を生成するメカニズムを提供する。
総合的な評価により、様々なタスクにおける最先端性能を維持しながら、不確実性の頑健かつ解釈可能な予測が得られることを示す。
論文 参考訳(メタデータ) (2022-01-15T17:15:07Z) - The Hidden Uncertainty in a Neural Networks Activations [105.4223982696279]
ニューラルネットワークの潜在表現の分布は、アウト・オブ・ディストリビューション(OOD)データの検出に成功している。
本研究は、この分布が、モデルの不確実性と相関しているかどうかを考察し、新しい入力に一般化する能力を示す。
論文 参考訳(メタデータ) (2020-12-05T17:30:35Z) - Trust but Verify: Assigning Prediction Credibility by Counterfactual
Constrained Learning [123.3472310767721]
予測信頼性尺度は統計学と機械学習において基本的なものである。
これらの措置は、実際に使用される多種多様なモデルを考慮に入れるべきである。
この研究で開発されたフレームワークは、リスクフィットのトレードオフとして信頼性を表現している。
論文 参考訳(メタデータ) (2020-11-24T19:52:38Z) - Estimating predictive uncertainty for rumour verification models [24.470032028639107]
我々は,不確実性推定を用いてモデル予測が誤っている可能性が示唆された。
本稿では,不確実性に基づくインスタンス拒絶の2つの方法を提案する。
論文 参考訳(メタデータ) (2020-05-14T17:42:25Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。