論文の概要: Dequantizability from inputs
- arxiv url: http://arxiv.org/abs/2405.13273v1
- Date: Wed, 22 May 2024 01:08:54 GMT
- ステータス: 処理完了
- システム内更新日: 2024-05-25 01:43:54.110205
- Title: Dequantizability from inputs
- Title(参考訳): 入力からのdequantizability
- Authors: Tae-Won Kim, Byung-Soo Choi,
- Abstract要約: 本稿では、入力が与えられるたびに適用可能な復号化可能性検証スキームを作成する。
結論として,本論文は,入力が与えられるたびに適用可能な復号化可能性検証スキームを形成する。
- 参考スコア(独自算出の注目度): 1.3592772713571075
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: By comparing constructions of block encoding given by [1-4], we propose a way to extract dequantizability from advancements in dequantization techniques that have been led by Tang, as in [5]. Then we apply this notion to the sparse-access input model that is known to be BQP-complete in general, thereby conceived to be un-dequantizable. Our goal is to break down this belief by examining the sparse-access input model's instances, particularly their input matrices. In conclusion, this paper forms a dequantizability-verifying scheme that can be applied whenever an input is given.
- Abstract(参考訳): 本研究では,[1-4]によるブロック符号化の構成を比較することにより,[5]のように唐が主導した復号化手法の進歩から復号化性を抽出する方法を提案する。
そして、この概念を、一般にBQP完全であることが知られているスパースアクセス入力モデルに適用し、したがって、不等化であると考えられる。
我々の目標は、スパースアクセス入力モデルのインスタンス、特に入力行列を調べることで、この信念を分解することである。
結論として,本論文は,入力が与えられるたびに適用可能な復号化可能性検証スキームを形成する。
関連論文リスト
- Quantization of Large Language Models with an Overdetermined Basis [73.79368761182998]
本稿では,嘉心表現の原理に基づくデータ量子化アルゴリズムを提案する。
以上の結果から, カシ量子化はモデル性能の競争力や優れた品質を達成できることが示唆された。
論文 参考訳(メタデータ) (2024-04-15T12:38:46Z) - Mitigating the Impact of Outlier Channels for Language Model Quantization with Activation Regularization [62.15918574997175]
言語モデルには、平均値が他のチャネルよりも桁違いに高い外れ値チャネルが含まれていることが知られている。
本稿では,QAT(Quantization-Aware Training)とアクティベーション・カルトシス・正規化(Activation Kurtosis regularization)によって,レイヤの入力を正規化する戦略を提案する。
入力と出力の両方を正規化することは、入力量子化の難しさを重みに"移行"するのを防ぐために重要であることを示す。
論文 参考訳(メタデータ) (2024-04-04T17:25:30Z) - Dimensionality reduction can be used as a surrogate model for
high-dimensional forward uncertainty quantification [3.218294891039672]
本研究では,不確実性定量化における次元減少の結果から代理モデルを構築する手法を提案する。
提案手法は次元減少の逐次的応用とは異なる。
提案手法は,高次元入力の不確かさを特徴とする2つの不確実性定量化問題によって実証される。
論文 参考訳(メタデータ) (2024-02-07T04:47:19Z) - Sampled sub-block hashing for large input randomness extraction [2.549884936158282]
ランダム性抽出は量子暗号システムにおいて重要な後処理ステップである。
入力データサイズが大きいと、ランダムネス抽出プロセスの速度とリソース消費が大幅に低下する可能性がある。
この問題を回避するために,サンプルサブブロックハッシュ手法を提案する。
論文 参考訳(メタデータ) (2023-08-05T12:09:05Z) - Randomized semi-quantum matrix processing [0.0]
汎用行列関数のモンテカルロシミュレーションのためのハイブリッド量子古典フレームワークを提案する。
我々のフレームワークは、初期のフォールトトレラント量子線型代数アプリケーションへの経路を提供する。
論文 参考訳(メタデータ) (2023-07-21T18:00:28Z) - Generalizing Backpropagation for Gradient-Based Interpretability [103.2998254573497]
モデルの勾配は、半環を用いたより一般的な定式化の特別な場合であることを示す。
この観測により、バックプロパゲーションアルゴリズムを一般化し、他の解釈可能な統計を効率的に計算することができる。
論文 参考訳(メタデータ) (2023-07-06T15:19:53Z) - Tokenization Consistency Matters for Generative Models on Extractive NLP
Tasks [54.306234256074255]
生成モデルの訓練において一般的に無視されるトークン化の不整合の問題を特定する。
この問題は、入力と出力が無矛盾にトークン化されると、これらのタスクの抽出特性を損なう。
一貫性のあるトークン化では、ドメイン内のデータセットとドメイン外のデータセットの両方で、モデルのパフォーマンスが向上することを示す。
論文 参考訳(メタデータ) (2022-12-19T23:33:21Z) - Wasserstein Iterative Networks for Barycenter Estimation [80.23810439485078]
生成モデルを用いて連続測度のワッサーシュタイン2バリセンターを近似するアルゴリズムを提案する。
有名人の顔のデータセットに基づいて、バリセンタアルゴリズムの定量的評価に使用できるAve, celeba!データセットを構築した。
論文 参考訳(メタデータ) (2022-01-28T16:59:47Z) - Deep Identification of Nonlinear Systems in Koopman Form [0.0]
本論文では,クープマンに基づく深部状態空間エンコーダを用いた非線形力学系の同定について述べる。
揚力モデル構造には入力-アフィンの定式化が考慮され, 完全状態と部分状態の両方に対処する。
論文 参考訳(メタデータ) (2021-10-06T08:50:56Z) - Search Methods for Sufficient, Socially-Aligned Feature Importance
Explanations with In-Distribution Counterfactuals [72.00815192668193]
特徴重要度(FI)推定は一般的な説明形式であり、テスト時に特定の入力特徴を除去することによって生じるモデル信頼度の変化を計算し、評価することが一般的である。
FIに基づく説明の未探索次元についていくつかの考察を行い、この説明形式に対する概念的および実証的な改善を提供する。
論文 参考訳(メタデータ) (2021-06-01T20:36:48Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。