論文の概要: Nonadaptive One-Way to Hiding Implies Adaptive Quantum Reprogramming
- arxiv url: http://arxiv.org/abs/2511.16009v1
- Date: Thu, 20 Nov 2025 03:07:46 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-21 17:08:52.449818
- Title: Nonadaptive One-Way to Hiding Implies Adaptive Quantum Reprogramming
- Title(参考訳): 非適応型ワンウェイによる適応型量子再プログラミング
- Authors: Joseph Jaeger,
- Abstract要約: 適応的再プログラミングを解析するためのいくつかの量子フレームワークは、Unruh、Grilo-Hvelmanns-Hlsing-Majenz、Pan-Zengによって与えられた。
我々は,これらの適応結果が,アンバイニス・ハンブルク・ウンルーの隠蔽までのエンフェノン片方向から導かれることを示す。
- 参考スコア(独自算出の注目度): 5.880185415913207
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: An important proof technique in the random oracle model involves reprogramming it on hard to predict inputs and arguing that an attacker cannot detect that this occurred. In the quantum setting, a particularly challenging version of this considers adaptive reprogramming wherein the points to be reprogrammed (or the output values they should be programmed to) are dependent on choices made by the adversary. Some quantum frameworks for analyzing adaptive reprogramming were given by Unruh (CRYPTO 2014, EUROCRYPT 2015), Grilo-Hövelmanns-Hülsing-Majenz (ASIACRYPT 2021), and Pan-Zeng (PKC 2024). We show, counterintuitively, that these adaptive results follow from the \emph{nonadaptive} one-way to hiding theorem of Ambainis-Hamburg-Unruh (CRYPTO 2019). These implications contradict beliefs (whether stated explicitly or implicitly) that some properties of the adaptive frameworks cannot be provided by the Ambainis-Hamburg-Unruh result.
- Abstract(参考訳): ランダムオラクルモデルにおける重要な証明手法は、入力を予測し難いプログラムで再プログラムし、攻撃者がこれを検出できないことを主張することである。
量子設定では、特に難しいバージョンでは、再プログラムすべき点(あるいはプログラムすべき出力値)が敵の選択に依存する適応的再プログラミングを考える。
適応的再プログラミングを解析するためのいくつかの量子フレームワークは、Unruh (CRYPTO 2014 EUROCRYPT 2015)、Grilo-Hövelmanns-Hülsing-Majenz (ASIACRYPT 2021)、Pan-Zeng (PKC 2024)によって与えられた。
我々は,これらの適応結果は,アンバイニス・ハンブルク・ウンルーの隠れ定理(CRYPTO 2019)への一方向から導かれることを示す。
これらの含意は、アダプティブ・フレームワークのいくつかの性質は、アンバイニス=ハンブルク=ウンルーの結果では提供できないという信念(明示的にも暗黙的にも)と矛盾する。
関連論文リスト
- COIN: Uncertainty-Guarding Selective Question Answering for Foundation Models with Provable Risk Guarantees [51.5976496056012]
COINは、統計的に有効な閾値を校正し、質問毎に1つの生成された回答をフィルタリングする不確実性保護選択フレームワークである。
COINはキャリブレーションセット上で経験的誤差率を推定し、信頼区間法を適用して真誤差率に高い確率上界を確立する。
リスク管理におけるCOINの堅牢性,許容回答を維持するための強いテストタイムパワー,キャリブレーションデータによる予測効率を実証する。
論文 参考訳(メタデータ) (2025-06-25T07:04:49Z) - Adaptive Conformal Inference by Betting [51.272991377903274]
データ生成プロセスについて仮定することなく適応型共形推論の問題を考察する。
適応型共形推論のための既存のアプローチは、オンライン勾配勾配の変種を用いたピンボール損失の最適化に基づいている。
本稿では,パラメータフリーなオンライン凸最適化手法を利用した適応型共形推論手法を提案する。
論文 参考訳(メタデータ) (2024-12-26T18:42:08Z) - Conformal Generative Modeling with Improved Sample Efficiency through Sequential Greedy Filtering [55.15192437680943]
生成モデルは出力に対する厳密な統計的保証を欠いている。
厳密な統計的保証を満たす予測セットを生成する逐次共形予測法を提案する。
このことは、高い確率で予測セットが少なくとも1つの許容可能な(または有効な)例を含むことを保証している。
論文 参考訳(メタデータ) (2024-10-02T15:26:52Z) - Adaptive Uncertainty Quantification for Generative AI [0.0]
分割コンフォーマルな推論を反映して、整合性のスコアを校正するブラックボックスアルゴリズムのラッパーを設計する。
校正セット上の適合点に頑健な回帰木を嵌合させることにより適応的分割を実現する。
従来のスプリット・コンフォーマルな推論とは異なり、適応的な分割とグループ内キャリブレーションは、局所的に拡張および縮小できる適応バンドをもたらす。
論文 参考訳(メタデータ) (2024-08-16T19:37:33Z) - Regression Trees for Fast and Adaptive Prediction Intervals [2.6763498831034043]
本稿では,局所的なカバレッジ保証を伴う回帰問題に対して,予測間隔を調整するための一連の手法を提案する。
回帰木とランダムフォレストを適合度スコアでトレーニングすることで分割を作成する。
提案手法は多種多様な適合性スコアや予測設定に適用できるため,多種多様である。
論文 参考訳(メタデータ) (2024-02-12T01:17:09Z) - Source-Free Unsupervised Domain Adaptation with Hypothesis Consolidation
of Prediction Rationale [53.152460508207184]
Source-Free Unsupervised Domain Adaptation (SFUDA)は、モデルがターゲットのドメインラベルやソースドメインデータにアクセスせずに新しいドメインに適応する必要がある、という課題である。
本稿では,各サンプルについて複数の予測仮説を考察し,各仮説の背景にある理論的根拠について考察する。
最適性能を達成するために,モデル事前適応,仮説統合,半教師付き学習という3段階の適応プロセスを提案する。
論文 参考訳(メタデータ) (2024-02-02T05:53:22Z) - Adaptive Conformal Prediction by Reweighting Nonconformity Score [0.0]
我々は、QRF(Quantile Regression Forest)を用いて、不整合スコアの分布を学習し、QRFの重みを利用して、テストポイントに類似した残差を持つサンプルにより重要度を割り当てる。
提案手法は,仮定のない有限標本境界範囲と訓練条件範囲を満足し,適切な仮定の下で条件付き範囲を確保できる。
論文 参考訳(メタデータ) (2023-03-22T16:42:19Z) - CC-Cert: A Probabilistic Approach to Certify General Robustness of
Neural Networks [58.29502185344086]
安全クリティカルな機械学習アプリケーションでは、モデルを敵の攻撃から守ることが不可欠である。
意味的に意味のある入力変換に対して、ディープラーニングモデルの証明可能な保証を提供することが重要である。
我々はChernoff-Cramer境界に基づく新しい普遍確率的証明手法を提案する。
論文 参考訳(メタデータ) (2021-09-22T12:46:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。