論文の概要: Exploring Prime Number Classification: Achieving High Recall Rate and
Rapid Convergence with Sparse Encoding
- arxiv url: http://arxiv.org/abs/2402.03363v2
- Date: Wed, 7 Feb 2024 02:15:40 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-08 18:47:50.160606
- Title: Exploring Prime Number Classification: Achieving High Recall Rate and
Rapid Convergence with Sparse Encoding
- Title(参考訳): 素数分類の探求:スパース符号化による高いリコールレートと高速収束の実現
- Authors: Serin Lee and S. Kim
- Abstract要約: 本稿では,素数と非素数の分類に焦点をあて,機械学習と数論の交点における新しいアプローチを提案する。
我々の研究の核心は、従来のニューラルネットワークアーキテクチャと統合された、高度にスパースな符号化手法の開発である。
自然に不均衡な整数列から素数を99%以上、非素数に対して79%以上をリコールする。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This paper presents a novel approach at the intersection of machine learning
and number theory, focusing on the classification of prime and non-prime
numbers. At the core of our research is the development of a highly sparse
encoding method, integrated with conventional neural network architectures.
This combination has shown promising results, achieving a recall of over 99\%
in identifying prime numbers and 79\% for non-prime numbers from an inherently
imbalanced sequential series of integers, while exhibiting rapid model
convergence before the completion of a single training epoch. We performed
training using $10^6$ integers starting from a specified integer and tested on
a different range of $2 \times 10^6$ integers extending from $10^6$ to $3
\times 10^6$, offset by the same starting integer. While constrained by the
memory capacity of our resources, which limited our analysis to a span of
$3\times10^6$, we believe that our study contribute to the application of
machine learning in prime number analysis. This work aims to demonstrate the
potential of such applications and hopes to inspire further exploration and
possibilities in diverse fields.
- Abstract(参考訳): 本稿では,素数と非素数の分類に焦点をあて,機械学習と数論の交点における新しいアプローチを提案する。
私たちの研究の中心は、従来のニューラルネットワークアーキテクチャと統合した、非常にスパースなエンコーディング手法の開発です。
この組み合わせは有望な結果を示しており、素数を特定する際に99\%以上、本質的に不均衡な整数列から非素数に対して79\%のリコールを達成している。
指定された整数から始まる10^6$整数を用いてトレーニングを行い、同じ開始整数でオフセットされた10^6$から3$までの2ドル10^6$整数の異なる範囲でテストした。
資源のメモリ容量に制約され、分析は3ドルまで制限されるが、本研究では素数解析における機械学習の適用に寄与していると信じている。
この研究は、このような応用の可能性を示すことを目的としており、多様な分野におけるさらなる探索と可能性の促進を望んでいる。
関連論文リスト
- Interleaving Text and Number Embeddings to Solve Mathemathics Problems [0.0]
我々は、より表現力のある数値埋め込みを導入することで、近年のアプローチを構築している。
本手法は, 数値アーチファクトの除去, クリッピングを伴わずに広範囲のマグニチュードを扱う能力など, 重要な欠点に対処する。
論文 参考訳(メタデータ) (2024-10-25T07:21:57Z) - Understanding the Countably Infinite: Neural Network Models of the Successor Function and its Acquisition [0.9208007322096533]
小学校に入ると、数字の順序構造に対する理解は、記憶された数列から、後継関数を理解し、数え切れないほど無限となるものへと移行する。
N in (0, 98) のペア (N, N+1) における後継関数を学習する2つのニューラルネットワークモデルにおけるこの発達変化について検討する。
これらのモデルは、リカレントアーキテクチャを使用して、後継関数の学習を超えて、カウントプロセスをより一般的にシミュレートするための将来の作業のステージを設定した。
論文 参考訳(メタデータ) (2023-11-26T05:17:45Z) - Positional Description Matters for Transformers Arithmetic [58.4739272381373]
トランスフォーマーは、大きな能力にもかかわらず、算術的なタスクに干渉することが多い。
位置エンコーディングを直接修正するか、あるいは算術タスクの表現を変更して、標準的な位置エンコーディングを異なる方法で活用することで、問題を解決する方法をいくつか提案する。
論文 参考訳(メタデータ) (2023-11-22T00:31:01Z) - Learning Narrow One-Hidden-Layer ReLU Networks [30.63086568341548]
最初のアルゴリズムは$k$が定数であるときに成功する。
我々は、十分に近接したニューロンを一緒に崩壊させることができると主張するために、マルチスケール分析を用いる。
論文 参考訳(メタデータ) (2023-04-20T17:53:09Z) - Identifying primes from entanglement dynamics [0.0]
本稿では,線形エンタングルメントエントロピーの進化解析に基づいて,自然数の原始性を決定する方法を提案する。
具体的には、このエントロピーのフーリエ級数の振幅の特異な振る舞いが素数と関連していることを示す。
論文 参考訳(メタデータ) (2023-03-16T12:51:35Z) - Quantum Resources Required to Block-Encode a Matrix of Classical Data [56.508135743727934]
回路レベルの実装とリソース推定を行い、古典データの高密度な$Ntimes N$行列をブロックエンコードして$epsilon$を精度良くすることができる。
異なるアプローチ間のリソーストレードオフを調査し、量子ランダムアクセスメモリ(QRAM)の2つの異なるモデルの実装を検討する。
我々の結果は、単純なクエリの複雑さを超えて、大量の古典的データが量子アルゴリズムにアクセスできると仮定された場合のリソースコストの明確な図を提供する。
論文 参考訳(メタデータ) (2022-06-07T18:00:01Z) - Holographic Realization of the Prime Number Quantum Potential [0.0]
素数量子ポテンシャル $V_N(x)$ の第一の実験的実現は、第一の$N$素数から与えられる固有値を持つ単一粒子 Schr"odinger Hamiltonian に入るポテンシャルとして定義される。
また、素数に対して慣れ親しんだエラトステネスのシーブと異なるシーブによって生成される整数列であるラッキー数を持つポテンシャルも実装する。
論文 参考訳(メタデータ) (2022-02-07T19:00:02Z) - Generative Kernel Continual learning [117.79080100313722]
本稿では、生成モデルとカーネル間の相乗効果を利用して連続学習を行う、生成カーネル連続学習を紹介する。
生成モデルは、カーネル学習のための代表サンプルを生成することができ、カーネル連続学習におけるメモリ依存を取り除くことができる。
コントリビューションの能力とメリットを示すために,広く利用されている3つの連続学習ベンチマークについて広範な実験を行った。
論文 参考訳(メタデータ) (2021-12-26T16:02:10Z) - Deep metric learning improves lab of origin prediction of genetically
engineered plasmids [63.05016513788047]
遺伝工学の属性(GEA)は、配列-ラブの関連を作る能力である。
本稿では,計量学習に基づいて,最も可能性の高い実験室をランク付けする手法を提案する。
我々は、特定の実験室のプラスミド配列のキーシグネチャを抽出することができ、モデル出力の解釈可能な検査を可能にする。
論文 参考訳(メタデータ) (2021-11-24T16:29:03Z) - Solving Mixed Integer Programs Using Neural Networks [57.683491412480635]
本稿では,mipソルバの2つのキーサブタスクに学習を適用し,高品質なジョイント変数割当を生成し,その割当と最適課題との客観的値の差を限定する。
提案手法は,ニューラルネットワークに基づく2つのコンポーネントであるニューラルダイバーディングとニューラルブランチを構築し,SCIPなどのベースMIPソルバで使用する。
2つのGoogle生産データセットとMIPLIBを含む6つの現実世界データセットに対するアプローチを評価し、それぞれに別々のニューラルネットワークをトレーニングする。
論文 参考訳(メタデータ) (2020-12-23T09:33:11Z) - Generalized Leverage Score Sampling for Neural Networks [82.95180314408205]
レバレッジスコアサンプリング(英: Leverage score sample)は、理論計算機科学に由来する強力な技術である。
本研究では、[Avron, Kapralov, Musco, Musco, Musco, Velingker, Zandieh 17] の結果をより広範なカーネルのクラスに一般化する。
論文 参考訳(メタデータ) (2020-09-21T14:46:01Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。