論文の概要: Discrete Denoising Diffusion Approach to Integer Factorization
- arxiv url: http://arxiv.org/abs/2309.05295v1
- Date: Mon, 11 Sep 2023 08:26:08 GMT
- ステータス: 処理完了
- システム内更新日: 2023-09-12 13:16:13.486823
- Title: Discrete Denoising Diffusion Approach to Integer Factorization
- Title(参考訳): 離散化拡散法による整数因子化
- Authors: Karlis Freivalds, Emils Ozolins, Guntis Barzdins
- Abstract要約: 本稿では、ディープニューラルネットワークと離散化拡散を利用した分解手法を提案する。
最大56ビットの整数の因子を見つけることができる。
- 参考スコア(独自算出の注目度): 2.703646340383201
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Integer factorization is a famous computational problem unknown whether being
solvable in the polynomial time. With the rise of deep neural networks, it is
interesting whether they can facilitate faster factorization. We present an
approach to factorization utilizing deep neural networks and discrete denoising
diffusion that works by iteratively correcting errors in a partially-correct
solution. To this end, we develop a new seq2seq neural network architecture,
employ relaxed categorical distribution and adapt the reverse diffusion process
to cope better with inaccuracies in the denoising step. The approach is able to
find factors for integers of up to 56 bits long. Our analysis indicates that
investment in training leads to an exponential decrease of sampling steps
required at inference to achieve a given success rate, thus counteracting an
exponential run-time increase depending on the bit-length.
- Abstract(参考訳): 整数分解は多項式時間で解けるかどうか不明な有名な計算問題である。
ディープニューラルネットワークの台頭に伴い、それらがより迅速なファクタライゼーションを促進することができるかどうかが興味深い。
本稿では,部分的正解法において誤りを反復的に補正し,ディープニューラルネットワークと離散分音拡散を用いた因子分解手法を提案する。
この目的のために,自由度の高いカテゴリ分布を用いた新しいseq2seqニューラルネットワークアーキテクチャを開発し,逆拡散プロセスを適用し,雑音化ステップにおける不正確性に対処した。
このアプローチでは、最大56ビットの整数の係数を見つけることができる。
分析の結果, トレーニングへの投資は, 所定の成功率を達成するのに必要なサンプリングステップの指数関数的減少を招き, ビット長に応じて指数関数的な実行時間増加を抑制できることがわかった。
関連論文リスト
- Randomized Sparse Neural Galerkin Schemes for Solving Evolution
Equations with Deep Networks [1.5281057386824812]
この研究は、各タイムステップでネットワークパラメータのランダム化されたスパースサブセットを更新するNeural Galerkinスキームを導入している。
ランダム化は、時間内の局所的な過度な適合を避けるため、シーケンシャル・イン・タイムのトレーニングでエラーが迅速に蓄積されるのを防ぐ。
幅広い進化方程式を用いた数値実験では、ランダム化されたスパース更新を用いた提案手法は、固定された計算予算において最大で2桁精度が高い。
論文 参考訳(メタデータ) (2023-10-07T16:27:00Z) - Speeding Up Speech Synthesis In Diffusion Models By Reducing Data Distribution Recovery Steps Via Content Transfer [3.2634122554914002]
拡散に基づくボコーダはサンプリングに必要な多くのステップのために遅いと批判されている。
本稿では,目標がプロセスの進行時間ステップの異なる出力となる設定を提案する。
提案手法は競争時間帯に高忠実度音声を生成することを示す。
論文 参考訳(メタデータ) (2023-09-18T10:35:27Z) - Correcting auto-differentiation in neural-ODE training [19.472357078065194]
ニューラルネットワークが基礎となるODEフローを近似するために高次形式を用いる場合、自動微分を用いたブルートフォース計算は、しばしば非収束人工振動を生成する。
本稿では、これらの振動を効果的に排除し、計算を修正し、基礎となる流れの更新を尊重する簡単な後処理手法を提案する。
論文 参考訳(メタデータ) (2023-06-03T20:34:14Z) - Random Weight Factorization Improves the Training of Continuous Neural
Representations [1.911678487931003]
連続神経表現は、信号の古典的な離散化表現に代わる強力で柔軟な代替物として登場した。
従来の線形層をパラメータ化・初期化するための単純なドロップイン置換法としてランダムウェイト係数化を提案する。
ネットワーク内の各ニューロンが、自身の自己適応学習率を用いて学習できるように、この因子化が基盤となる損失状況をどのように変化させるかを示す。
論文 参考訳(メタデータ) (2022-10-03T23:48:48Z) - Training Feedback Spiking Neural Networks by Implicit Differentiation on
the Equilibrium State [66.2457134675891]
スパイキングニューラルネットワーク(英: Spiking Neural Network、SNN)は、ニューロモルフィックハードウェア上でエネルギー効率の高い実装を可能にする脳にインスパイアされたモデルである。
既存のほとんどの手法は、人工ニューラルネットワークのバックプロパゲーションフレームワークとフィードフォワードアーキテクチャを模倣している。
本稿では,フォワード計算の正逆性に依存しない新しいトレーニング手法を提案する。
論文 参考訳(メタデータ) (2021-09-29T07:46:54Z) - DeepSplit: Scalable Verification of Deep Neural Networks via Operator
Splitting [70.62923754433461]
入力摂動に対するディープニューラルネットワークの最悪の性能を分析することは、大規模な非最適化問題の解決につながる。
解析解を持つ小さなサブプロブレムに分割することで,問題の凸緩和を直接高精度に解ける新しい手法を提案する。
論文 参考訳(メタデータ) (2021-06-16T20:43:49Z) - Non-Gradient Manifold Neural Network [79.44066256794187]
ディープニューラルネットワーク(DNN)は通常、勾配降下による最適化に数千のイテレーションを要します。
非次最適化に基づく新しい多様体ニューラルネットワークを提案する。
論文 参考訳(メタデータ) (2021-06-15T06:39:13Z) - Scaling Up Exact Neural Network Compression by ReLU Stability [22.821726425339797]
安定なニューロンを同定するために,単一最適化問題に基づくアルゴリズムを導入する。
我々の手法は最先端手法の21倍の速度である。
論文 参考訳(メタデータ) (2021-02-15T19:19:02Z) - Solving Sparse Linear Inverse Problems in Communication Systems: A Deep
Learning Approach With Adaptive Depth [51.40441097625201]
疎信号回復問題に対するエンドツーエンドの訓練可能なディープラーニングアーキテクチャを提案する。
提案手法は,出力するレイヤ数を学習し,各タスクのネットワーク深さを推論フェーズで動的に調整する。
論文 参考訳(メタデータ) (2020-10-29T06:32:53Z) - Multipole Graph Neural Operator for Parametric Partial Differential
Equations [57.90284928158383]
物理系をシミュレーションするためのディープラーニングベースの手法を使用する際の大きな課題の1つは、物理ベースのデータの定式化である。
線形複雑度のみを用いて、あらゆる範囲の相互作用をキャプチャする、新しいマルチレベルグラフニューラルネットワークフレームワークを提案する。
実験により, 離散化不変解演算子をPDEに学習し, 線形時間で評価できることを確認した。
論文 参考訳(メタデータ) (2020-06-16T21:56:22Z) - Channel Assignment in Uplink Wireless Communication using Machine
Learning Approach [54.012791474906514]
本稿では,アップリンク無線通信システムにおけるチャネル割り当て問題について検討する。
我々の目標は、整数チャネル割り当て制約を受ける全ユーザの総和率を最大化することです。
計算複雑性が高いため、機械学習アプローチは計算効率のよい解を得るために用いられる。
論文 参考訳(メタデータ) (2020-01-12T15:54:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。