論文の概要: Stress Testing Machine Learning at $10^{10}$ Scale: A Comprehensive Study of Adversarial Robustness on Algebraically Structured Integer Streams
- arxiv url: http://arxiv.org/abs/2601.06117v1
- Date: Sat, 03 Jan 2026 16:41:00 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-13 19:08:00.586522
- Title: Stress Testing Machine Learning at $10^{10}$ Scale: A Comprehensive Study of Adversarial Robustness on Algebraically Structured Integer Streams
- Title(参考訳): 10–10}$スケールでのストレステスト機械学習: 代数的構造を持つ整数列上の逆ロバスト性に関する総合的研究
- Authors: HyunJun Jeon,
- Abstract要約: 本稿では,構造化された数学的データをベンチマークとして,機械学習システムの大規模ストレステストを提案する。
我々は,100億のサンプルと50億の反例を用いて,木質分類器の頑健さを前例のない規模で評価した。
- 参考スコア(独自算出の注目度): 0.2538209532048867
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: This paper presents a large-scale stress test of machine learning systems using structured mathematical data as a benchmark. We evaluate the robustness of tree-based classifiers at an unprecedented scale, utilizing ten billion deterministic samples and five billion adversarial counterexamples. Our framework introduces three primary contributions: first, a high-throughput pipeline that reformulates Pythagorean triple generation into a single-parameter index stream, significantly improving computational efficiency over classical methods; second, the Hypothesis-driven Negative Dataset (HND), which categorizes nine classes of adversarial attacks designed to exploit both arithmetic precision and structural patterns; and third, a fault-tolerant infrastructure for reliable large-scale training. Experimental results demonstrate that while LightGBM achieves 99.99% accuracy, feature attribution reveals that the model prioritizes underlying quadratic patterns over direct algebraic verification. These findings suggest that learned heuristics can effectively identify structural representations in numerical data, potentially serving as efficient preprocessors for formal verification methods.
- Abstract(参考訳): 本稿では,構造化された数学的データをベンチマークとして,機械学習システムの大規模ストレステストを提案する。
我々は,100億の決定論的サンプルと50億の反対反例を用いて,木質分類器の頑健さを前例のない規模で評価した。
本フレームワークでは,Pythagorean三重項生成を1パラメータのインデックスストリームに再構成し,古典的手法よりも計算効率を著しく向上させる高スループットパイプラインと,算術精度と構造パターンの両方を活用するために設計された9つの対角攻撃を分類する仮説駆動負のデータセット(HND)と,信頼性の高い大規模トレーニングのためのフォールトトレラント基盤と,の3つの主要なコントリビューションを紹介する。
実験の結果、LightGBMは99.99%の精度を達成しているが、特徴属性により、モデルが直接代数的検証よりも基礎となる二次パターンを優先していることが示されている。
これらの結果は、学習ヒューリスティックスが数値データの構造的表現を効果的に識別し、形式的検証手法の効率的なプリプロセッサとして機能することを示唆している。
関連論文リスト
- High-Dimensional Learning in Finance [0.0]
機械学習の最近の進歩は、財務予測に有望な結果を示している。
本稿では,これらの手法が予測的成功をいつ,どのように達成するかを理解するための理論的基礎と実証的検証を提供する。
論文 参考訳(メタデータ) (2025-06-04T09:41:55Z) - Discrete Markov Bridge [93.64996843697278]
離散マルコフブリッジと呼ばれる離散表現学習に特化して設計された新しいフレームワークを提案する。
私たちのアプローチは、Matrix LearningとScore Learningの2つの重要なコンポーネントの上に構築されています。
論文 参考訳(メタデータ) (2025-05-26T09:32:12Z) - Implicit Generative Prior for Bayesian Neural Networks [8.013264410621357]
複雑なデータ構造のための新しいニューラルネットワーク型経験ベイズ(NA-EB)フレームワークを提案する。
NA-EBフレームワークは変分推論と勾配上昇アルゴリズムを組み合わせたものである。
各種タスクの広範囲な評価を通じて,本フレームワークの実践的応用を実証する。
論文 参考訳(メタデータ) (2024-04-27T21:00:38Z) - Modular Learning of Deep Causal Generative Models for High-dimensional Causal Inference [5.522612010562183]
Modular-DCMは、因果構造を考えると、敵のトレーニングを用いてネットワーク重みを学習する最初のアルゴリズムである。
本稿では,CelebA-HQ における因果不変予測問題を用いて,このアルゴリズムの COVIDx データセットとそのユーティリティへの収束性を示す。
論文 参考訳(メタデータ) (2024-01-02T20:31:15Z) - Robust Graph Representation Learning via Predictive Coding [46.22695915912123]
予測符号化は、当初脳の情報処理をモデル化するために開発されたメッセージパッシングフレームワークである。
本研究では,予測符号化のメッセージパス規則に依存するモデルを構築する。
提案したモデルは,帰納的タスクと帰納的タスクの両方において,標準的なモデルに匹敵する性能を示す。
論文 参考訳(メタデータ) (2022-12-09T03:58:22Z) - On the Robustness of Random Forest Against Untargeted Data Poisoning: An
Ensemble-Based Approach [42.81632484264218]
機械学習モデルでは、トレーニングセット(中毒)の分画の摂動が、モデルの精度を著しく損なう可能性がある。
本研究の目的は、ランダムな森林を標的のない無作為な毒殺攻撃から保護する、新しいハッシュベースのアンサンブルアプローチを実現することである。
論文 参考訳(メタデータ) (2022-09-28T11:41:38Z) - HyperImpute: Generalized Iterative Imputation with Automatic Model
Selection [77.86861638371926]
カラムワイズモデルを適応的かつ自動的に構成するための一般化反復計算フレームワークを提案する。
既製の学習者,シミュレータ,インターフェースを備えた具体的な実装を提供する。
論文 参考訳(メタデータ) (2022-06-15T19:10:35Z) - Amortized Inference for Causal Structure Learning [72.84105256353801]
因果構造を学習することは、通常、スコアまたは独立テストを使用して構造を評価することを伴う探索問題を引き起こす。
本研究では,観測・干渉データから因果構造を予測するため,変分推論モデルを訓練する。
我々のモデルは、実質的な分布シフトの下で頑健な一般化能力を示す。
論文 参考訳(メタデータ) (2022-05-25T17:37:08Z) - Robust Binary Models by Pruning Randomly-initialized Networks [57.03100916030444]
ランダムな二元ネットワークから敵攻撃に対して頑健なモデルを得る方法を提案する。
ランダムな二元ネットワークを切断することにより、ロバストモデルの構造を学習する。
本手法は, 敵攻撃の有無で, 強力な抽選券仮説を立証する。
論文 参考訳(メタデータ) (2022-02-03T00:05:08Z) - Proof Artifact Co-training for Theorem Proving with Language Models [4.934817254755007]
PACT(bf Proof bf Artifact bf Co-bf Training)は、カーネルレベルのコトレーニング用証明項から自己教師付きデータを抽出する一般的な手法である。
我々は、Transformer言語モデルによって駆動されるニューラル定理証明器でリーンを計測し、PACTがテスト定理の保留組における成功率を証明する定理を32%から48%に改善することを示す。
論文 参考訳(メタデータ) (2021-02-11T18:59:24Z) - Few-Shot Named Entity Recognition: A Comprehensive Study [92.40991050806544]
マルチショット設定のモデル一般化能力を向上させるための3つの手法を検討する。
ラベル付きデータの比率の異なる10の公開nerデータセットについて経験的比較を行う。
マルチショットとトレーニングフリーの両方の設定で最新の結果を作成します。
論文 参考訳(メタデータ) (2020-12-29T23:43:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。