論文の概要: Transformer models as an efficient replacement for statistical test suites to evaluate the quality of random numbers
- arxiv url: http://arxiv.org/abs/2405.03904v2
- Date: Wed, 23 Oct 2024 20:18:14 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-10-25 12:49:27.238390
- Title: Transformer models as an efficient replacement for statistical test suites to evaluate the quality of random numbers
- Title(参考訳): 確率数の品質評価のための統計的テストスイートの効率的な置き換えとしてのトランスフォーマーモデル
- Authors: Rishabh Goel, YiZi Xiao, Ramin Ramezani,
- Abstract要約: 我々は,複数のNIST STSテストを一度に実行し,より高速に実行するディープラーニングモデルを提案する。
このモデルでは,これらの統計的試験に合格して,複数ラベルの分類結果を出力する。
また,このモデルと従来の深層学習法を比較し,そのモデルが類似した性能を示した。
- 参考スコア(独自算出の注目度): 0.0
- License:
- Abstract: Random numbers are incredibly important in a variety of fields, and the need for their validation remains important for safety. A Quantum Random Number Generator (QRNG) can theoretically generate truly random numbers, however their quality still needs to be thoroughly validated. Generally, the task of validating random numbers has been delegated to different statistical tests such as the tests from the NIST Statistical Test Suite (STS), which are often slow and only perform one test at a time. Our work presents a deep learning model utilizing the Transformer architecture that 1) performs multiple NIST STS tests at once, and 2) runs much faster. This model outputs multi-label classification results on passing these statistical tests. We performed a thorough hyper-parameter optimization to converge on the best possible model and as a result, achieved a high degree of accuracy with a Macro F1-score of above 0.96. We also compared this model to a conventional deep learning method (Long Short Term Memory Recurrent Neural Networks) to quantify randomness and showed our model achieved similar performances while being much more efficient and scalable. The high performance and efficiency of this Transformer-based deep learning model showed that it can be a viable replacement for the NIST STS for validating random numbers.
- Abstract(参考訳): ランダム番号は様々な分野において非常に重要であり、その検証の必要性は安全上重要である。
量子乱数生成器(QRNG)は理論上真にランダムな数を生成することができるが、その品質を十分に検証する必要がある。
一般に、乱数検証のタスクは NIST Statistical Test Suite (STS) の試験など、異なる統計テストに委譲されている。
我々の研究はトランスフォーマーアーキテクチャを利用したディープラーニングモデルを提案する。
1) 一度に複数のNIST STSテストを実行し、
2) より高速に動作します。
このモデルでは,これらの統計的試験に合格して,複数ラベルの分類結果を出力する。
その結果,0.96以上のマクロF1スコアで高い精度を達成できた。
また、このモデルと従来のディープラーニング手法(Long Short Term Memory Recurrent Neural Networks)を比較し、より効率的でスケーラブルなモデルを示す。
このトランスフォーマーに基づくディープラーニングモデルの性能と効率は、乱数検証のためのNIST STSの代替となりうることを示した。
関連論文リスト
- On Using Quasirandom Sequences in Machine Learning for Model Weight Initialization [0.0]
本研究では,低分解能準ランダム数生成器(QRNG)のPRNGを初期化器のランダム性源として置換することで,モデル性能が向上するかどうかを検討する。
以上の結果から,QRNGベースのニューラルネットワーク初期化器は,PRNGベースの初期化器よりも高い精度に達するか,より高速に同じ精度が得られることが示唆された。
論文 参考訳(メタデータ) (2024-08-05T17:33:09Z) - Statistical testing of random number generators and their improvement using randomness extraction [0.0]
本稿では,既存の統計的テストスイートをベースとした総合統計テスト環境(STE)について紹介する。
STEは、認証機関が必要とするものを超えて、集中的なテストまで、軽量(即ち高速)で実行するようにパラメータ化することができる。
次に、RNGの出力品質を異なる仮定のセットで改善するランダム性抽出器の形で、さまざまな後処理手法を提示、実装する。
論文 参考訳(メタデータ) (2024-03-27T16:05:02Z) - A Stable, Fast, and Fully Automatic Learning Algorithm for Predictive
Coding Networks [65.34977803841007]
予測符号化ネットワークは、ベイズ統計学と神経科学の両方にルーツを持つ神経科学にインスパイアされたモデルである。
シナプス重みに対する更新規則の時間的スケジュールを変更するだけで、元の規則よりもずっと効率的で安定したアルゴリズムが得られることを示す。
論文 参考訳(メタデータ) (2022-11-16T00:11:04Z) - Validation tests of GBS quantum computers give evidence for quantum
advantage with a decoherent target [62.997667081978825]
複数モードデータの検証に指紋としてグループカウント確率の正P位相空間シミュレーションを用いる。
偽データを解き放つ方法を示し、これを古典的なカウントアルゴリズムに適用する。
論文 参考訳(メタデータ) (2022-11-07T12:00:45Z) - Near-optimal multiple testing in Bayesian linear models with
finite-sample FDR control [11.011242089340438]
高次元変数選択問題では、統計学者はしばしば偽発見率(FDR)を制御する複数の試験手順を設計しようと試みる。
モデルが誤って特定された場合でも、有限サンプルから頻繁なFDRを確実に制御するModel-Xプロシージャを導入する。
提案手法であるPoEdCeは, 後期待, 蒸留ランダム化試験 (dCRT) , およびE値を用いたBenjamini-Hochberg法である。
論文 参考訳(メタデータ) (2022-11-04T22:56:41Z) - Learning to Increase the Power of Conditional Randomization Tests [8.883733362171032]
モデル-X条件ランダム化テストは、条件独立性テストのための一般的なフレームワークである。
本稿では,モデルXテストのパワー向上を目的とした新しいモデル適合方式を提案する。
論文 参考訳(メタデータ) (2022-07-03T12:29:25Z) - Quantifying Inherent Randomness in Machine Learning Algorithms [7.591218883378448]
本稿では,モデル学習におけるランダム性,およびデータセットのトレーニングおよびテストサブセットへの分割におけるランダム性の影響を実験的に検討する。
我々は、ランダムフォレスト(RF)、グラディエントブースティングマシン(GBM)、フィードフォワードニューラルネットワーク(FFNN)の予測性能の変動の大きさを定量化し、比較する。
論文 参考訳(メタデータ) (2022-06-24T15:49:52Z) - TTAPS: Test-Time Adaption by Aligning Prototypes using Self-Supervision [70.05605071885914]
本研究では,単体テストサンプルに適用可能な自己教師付きトレーニングアルゴリズムSwaVの新たな改良を提案する。
ベンチマークデータセットCIFAR10-Cにおいて,本手法の有効性を示す。
論文 参考訳(メタデータ) (2022-05-18T05:43:06Z) - Efficient Test-Time Model Adaptation without Forgetting [60.36499845014649]
テストタイム適応は、トレーニングとテストデータの間の潜在的な分散シフトに取り組むことを目指している。
信頼性および非冗長なサンプルを同定するためのアクティブなサンプル選択基準を提案する。
また、重要なモデルパラメータを劇的な変化から制約するFisher regularizerを導入します。
論文 参考訳(メタデータ) (2022-04-06T06:39:40Z) - MEMO: Test Time Robustness via Adaptation and Augmentation [131.28104376280197]
テスト時間ロバスト化の問題、すなわちモデルロバスト性を改善するためにテストインプットを用いて検討する。
最近の先行研究ではテスト時間適応法が提案されているが、それぞれ追加の仮定を導入している。
モデルが確率的で適応可能な任意のテスト環境で使用できるシンプルなアプローチを提案する。
論文 参考訳(メタデータ) (2021-10-18T17:55:11Z) - ALT-MAS: A Data-Efficient Framework for Active Testing of Machine
Learning Algorithms [58.684954492439424]
少量のラベル付きテストデータのみを用いて機械学習モデルを効率的にテストする新しいフレームワークを提案する。
ベイズニューラルネットワーク(bnn)を用いたモデルアンダーテストの関心指標の推定が目的である。
論文 参考訳(メタデータ) (2021-04-11T12:14:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。