論文の概要: Neural Low-Discrepancy Sequences
- arxiv url: http://arxiv.org/abs/2510.03745v1
- Date: Sat, 04 Oct 2025 09:10:37 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-07 16:52:59.225975
- Title: Neural Low-Discrepancy Sequences
- Title(参考訳): ニューラルな低差分配列
- Authors: Michael Etienne Van Huffel, Nathan Kirk, Makram Chahine, Daniela Rus, T. Konstantin Rusch,
- Abstract要約: 低差分点は、一様に空間を効率よく満たすように設計されている。
MPMCは、低差の点集合を生成する機械学習手法を利用するために最近導入された。
LDSを生成するための最初の機械学習ベースのフレームワークであるNeuroLDS$(NeuroLDS$)を紹介する。
- 参考スコア(独自算出の注目度): 45.56667507360348
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Low-discrepancy points are designed to efficiently fill the space in a uniform manner. This uniformity is highly advantageous in many problems in science and engineering, including in numerical integration, computer vision, machine perception, computer graphics, machine learning, and simulation. Whereas most previous low-discrepancy constructions rely on abstract algebra and number theory, Message-Passing Monte Carlo (MPMC) was recently introduced to exploit machine learning methods for generating point sets with lower discrepancy than previously possible. However, MPMC is limited to generating point sets and cannot be extended to low-discrepancy sequences (LDS), i.e., sequences of points in which every prefix has low discrepancy, a property essential for many applications. To address this limitation, we introduce Neural Low-Discrepancy Sequences ($NeuroLDS$), the first machine learning-based framework for generating LDS. Drawing inspiration from classical LDS, we train a neural network to map indices to points such that the resulting sequences exhibit minimal discrepancy across all prefixes. To this end, we deploy a two-stage learning process: supervised approximation of classical constructions followed by unsupervised fine-tuning to minimize prefix discrepancies. We demonstrate that $NeuroLDS$ outperforms all previous LDS constructions by a significant margin with respect to discrepancy measures. Moreover, we demonstrate the effectiveness of $NeuroLDS$ across diverse applications, including numerical integration, robot motion planning, and scientific machine learning. These results highlight the promise and broad significance of Neural Low-Discrepancy Sequences. Our code can be found at https://github.com/camail-official/neuro-lds.
- Abstract(参考訳): 低差分点は、一様に空間を効率よく満たすように設計されている。
この均一性は、数値積分、コンピュータビジョン、機械認識、コンピュータグラフィックス、機械学習、シミュレーションなど、科学と工学の多くの問題において非常に有利である。
従来の低差分構造は抽象代数学や数論に頼っていたが、Message-Passing Monte Carlo (MPMC) が最近導入され、従来よりも低い差分性を持つ点集合を生成する機械学習手法が導入された。
しかし、MPMCは点集合の生成に限られており、低差分列(LDS)、すなわち全ての接頭辞が低差分を持つ点列に拡張できない。
この制限に対処するために、LSDを生成するための最初の機械学習ベースのフレームワークであるNeuroLDS$(NeuroLDS$)を導入します。
古典的なLDSからインスピレーションを得て、ニューラルネットワークをトレーニングしてインデックスをポイントにマッピングし、結果のシーケンスがすべてのプレフィックス間で最小の相違を示すようにします。
この目的のために、2段階の学習プロセスを展開し、古典的な構成の教師付き近似と教師なしの微調整を行い、プレフィックスの相違を最小限に抑える。
我々は、$NeuroLDS$ が従来の LDS の構成を、不一致対策に関してかなりの差で上回っていることを実証する。
さらに,数値積分,ロボット動作計画,科学機械学習など,さまざまな応用にまたがる$NeuroLDS$の有効性を実証した。
これらの結果は,ニューラルローディフレプシーシークエンス(Neural Low-Discrepancy Sequences)の可能性を浮き彫りにしている。
私たちのコードはhttps://github.com/camail-official/neuro-ldsで確認できます。
関連論文リスト
- LESA: Learnable LLM Layer Scaling-Up [57.0510934286449]
LLM(Large Language Models)をスクラッチからトレーニングするには膨大な計算資源が必要であるため、非常に高価である。
モデルスケーリングアップは、より小さなモデルのパラメータを活用してより大きなモデルを作成することで、有望なソリューションを提供する。
深度スケールアップのための新しい学習方法である textbfLESA を提案する。
論文 参考訳(メタデータ) (2025-02-19T14:58:48Z) - ReFill: Reinforcement Learning for Fill-In Minimization [3.9134031118910264]
補充の最小化はNPハードであり、既存の最小化(Minimum Degree)やNested Dissection(Nested Dissection)は適応性に制限を与える。
我々は,グラフニューラルネットワーク(GNN)によって強化された強化学習フレームワークであるtextitReFillを導入し,補充のための適応順序付け戦略を学習する。
論文 参考訳(メタデータ) (2025-01-27T15:20:41Z) - Message-Passing Monte Carlo: Generating low-discrepancy point sets via Graph Neural Networks [64.39488944424095]
本稿では,Message-Passing Monte Carlo という低差点集合を生成する機械学習手法を提案する。
MPMC点は、低次元と少数の点との差に関して、最適かほぼ最適であることが実証的に示されている。
論文 参考訳(メタデータ) (2024-05-23T21:17:20Z) - A Unified Algebraic Perspective on Lipschitz Neural Networks [88.14073994459586]
本稿では,様々なタイプの1-Lipschitzニューラルネットワークを統一する新しい視点を提案する。
そこで本研究では,SDP(Common semidefinite Programming)条件の解析解を求めることによって,既存の多くの手法を導出し,一般化することができることを示す。
SDPベースのLipschitz Layers (SLL) と呼ばれる我々のアプローチは、非自明で効率的な凸ポテンシャル層の一般化を設計できる。
論文 参考訳(メタデータ) (2023-03-06T14:31:09Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。