論文の概要: TAPAS: Datasets for Learning the Learning with Errors Problem
- arxiv url: http://arxiv.org/abs/2510.08797v1
- Date: Thu, 09 Oct 2025 20:23:06 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-14 00:38:47.705753
- Title: TAPAS: Datasets for Learning the Learning with Errors Problem
- Title(参考訳): TAPAS: エラー問題による学習のためのデータセット
- Authors: Eshika Saxena, Alberto Alfarano, François Charton, Emily Wenger, Kristin Lauter,
- Abstract要約: AIによるLearning with Errors(LWE)に対する攻撃は、量子後暗号において重要な問題である。
このアプローチの約束にもかかわらず、アクセス可能なデータの不足により、AI実践者がこれらの攻撃を研究し改善する能力は制限される。
本稿では,AIシステムを用いたポスト量子暗号解析用ツールキットであるTAPASデータセットを提案する。
- 参考スコア(独自算出の注目度): 18.872311974918322
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: AI-powered attacks on Learning with Errors (LWE), an important hard math problem in post-quantum cryptography, rival or outperform "classical" attacks on LWE under certain parameter settings. Despite the promise of this approach, a dearth of accessible data limits AI practitioners' ability to study and improve these attacks. Creating LWE data for AI model training is time- and compute-intensive and requires significant domain expertise. To fill this gap and accelerate AI research on LWE attacks, we propose the TAPAS datasets, a Toolkit for Analysis of Post-quantum cryptography using AI Systems. These datasets cover several LWE settings and can be used off-the-shelf by AI practitioners to prototype new approaches to cracking LWE. This work documents TAPAS dataset creation, establishes attack performance baselines, and lays out directions for future work.
- Abstract(参考訳): AIによるLearning with Errors(LWE)攻撃は、量子後暗号における重要なハード数学問題である。
このアプローチの約束にもかかわらず、アクセス可能なデータの不足により、AI実践者がこれらの攻撃を研究し改善する能力は制限される。
AIモデルトレーニングのためのLWEデータの作成は、時間と計算集約であり、重要なドメインの専門知識を必要とする。
このギャップを埋め、LWE攻撃に関するAI研究を加速するために、AIシステムを用いたポスト量子暗号解析のためのツールキットであるTAPASデータセットを提案する。
これらのデータセットは、いくつかのLWE設定をカバーしており、AI実践者がLWEをクラックする新しいアプローチのプロトタイプを作成するために、オフザシェルフで使用することができる。
この作業は、TAPASデータセットの作成を文書化し、攻撃パフォーマンスのベースラインを確立し、将来の作業の方向性を定めている。
関連論文リスト
- LLM as an Algorithmist: Enhancing Anomaly Detectors via Programmatic Synthesis [40.82779720776548]
大きな言語モデル(LLM)は驚くべき推論能力を示している。
我々のフレームワークは、LLMを「データプロセッサ」から「アルゴリズム」に再配置する。
論文 参考訳(メタデータ) (2025-10-04T19:00:51Z) - Adversarial Reasoning at Jailbreaking Time [49.70772424278124]
大規模言語モデル(LLM)は、より有能で広く普及している。
テスト時間計算の標準化, 測定, スケーリングの最近の進歩は, ハードタスクにおける高い性能を達成するためにモデルを最適化するための新しい手法を提案する。
本稿では、これらの進歩をジェイルブレイクモデルに応用し、協調LDMから有害な応答を誘発する。
論文 参考訳(メタデータ) (2025-02-03T18:59:01Z) - Leveraging Online Olympiad-Level Math Problems for LLMs Training and Contamination-Resistant Evaluation [55.21013307734612]
AoPS-Instructは60,000以上の高品質QAペアのデータセットである。
LiveAoPSBenchは、最新のフォーラムデータから派生したタイムスタンプによる進化的評価セットである。
我々の研究は、高度な数学推論のための大規模で高品質なデータセットの作成と維持にスケーラブルなアプローチを提示している。
論文 参考訳(メタデータ) (2025-01-24T06:39:38Z) - Towards Automatic Hands-on-Keyboard Attack Detection Using LLMs in EDR Solutions [3.345437353879255]
本研究では,大規模言語モデル(LLM)を用いて,HOK(Hands-on-Keyboard)サイバー攻撃を検出する手法を提案する。
本手法では, 終端アクティビティデータを, LLMが通常の操作と潜在的HOK攻撃を区別するために分析できる物語形式に変換する。
論文 参考訳(メタデータ) (2024-08-04T11:25:07Z) - The Frontier of Data Erasure: Machine Unlearning for Large Language Models [56.26002631481726]
大規模言語モデル(LLM)はAIの進歩の基礎となっている。
LLMは機密情報、偏見情報、著作権情報を記憶し、広めることによってリスクを生じさせる。
機械学習は、これらの懸念を軽減するための最先端のソリューションとして現れます。
論文 参考訳(メタデータ) (2024-03-23T09:26:15Z) - Generative AI for Synthetic Data Generation: Methods, Challenges and the
Future [12.506811635026907]
大規模言語モデル(LLM)から合成データを生成する研究の最近の動向
本稿では,タスク固有トレーニングデータの生成にこれらの巨大なLCMを活用する高度な技術について述べる。
論文 参考訳(メタデータ) (2024-03-07T03:38:44Z) - Pandora's White-Box: Precise Training Data Detection and Extraction in Large Language Models [4.081098869497239]
我々は,大規模言語モデル(LLM)に対する最先端のプライバシ攻撃を開発する。
事前訓練されたLLMに対する新たなメンバーシップ推論攻撃(MIA)は、ベースライン攻撃の数百倍の精度で実行される。
微調整では, ベースモデルと微調整モデルとの損失率に基づく単純な攻撃により, ほぼ完全なMIA性能が得られることがわかった。
論文 参考訳(メタデータ) (2024-02-26T20:41:50Z) - Large Language Models as Data Preprocessors [9.99065004972981]
大規模言語モデル (LLM) は人工知能において大きな進歩を遂げている。
本研究では、データマイニングおよび分析アプリケーションにおいて重要な段階である、データ前処理におけるその可能性について検討する。
我々は,最先端のプロンプトエンジニアリング技術を統合したデータ前処理のためのLLMベースのフレームワークを提案する。
論文 参考訳(メタデータ) (2023-08-30T23:28:43Z) - To Repeat or Not To Repeat: Insights from Scaling LLM under Token-Crisis [50.31589712761807]
大規模言語モデル(LLM)は、事前トレーニング中にトークンに悩まされていることで知られており、Web上の高品質なテキストデータは、LSMのスケーリング制限に近づいている。
本研究では,事前学習データの再学習の結果について検討し,モデルが過度に適合する可能性が示唆された。
第2に, マルチエポック劣化の原因となる要因について検討し, データセットのサイズ, モデルパラメータ, トレーニング目標など, 重要な要因について検討した。
論文 参考訳(メタデータ) (2023-05-22T17:02:15Z) - DataPerf: Benchmarks for Data-Centric AI Development [81.03754002516862]
DataPerfは、MLデータセットとデータ中心アルゴリズムを評価するための、コミュニティ主導のベンチマークスイートである。
私たちは、この反復的な開発をサポートするために、複数の課題を抱えたオープンなオンラインプラットフォームを提供しています。
ベンチマーク、オンライン評価プラットフォーム、ベースライン実装はオープンソースである。
論文 参考訳(メタデータ) (2022-07-20T17:47:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。