論文の概要: Neural Discovery in Mathematics: Do Machines Dream of Colored Planes?
- arxiv url: http://arxiv.org/abs/2501.18527v3
- Date: Thu, 05 Jun 2025 07:01:14 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-06 14:14:43.097039
- Title: Neural Discovery in Mathematics: Do Machines Dream of Colored Planes?
- Title(参考訳): 数学におけるニューラルディスカバリー:機械は色付き平面を夢見るのか?
- Authors: Konrad Mundinger, Max Zimmer, Aldo Kiem, Christoph Spiegel, Sebastian Pokutta,
- Abstract要約: ニューラルネットワークがHudwiger-Nelson問題のケーススタディを通じて数学的発見を促進する方法を実証する。
確率的, 微分可能な損失関数を持つ最適化タスクとして, この混合離散連続幾何着色問題を厳密な制約で再構成する。
これにより、許容可能な構成の勾配に基づく探索が可能となり、2つの新しい6色の発見につながった。
- 参考スコア(独自算出の注目度): 21.02602149305327
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We demonstrate how neural networks can drive mathematical discovery through a case study of the Hadwiger-Nelson problem, a long-standing open problem at the intersection of discrete geometry and extremal combinatorics that is concerned with coloring the plane while avoiding monochromatic unit-distance pairs. Using neural networks as approximators, we reformulate this mixed discrete-continuous geometric coloring problem with hard constraints as an optimization task with a probabilistic, differentiable loss function. This enables gradient-based exploration of admissible configurations that most significantly led to the discovery of two novel six-colorings, providing the first improvement in thirty years to the off-diagonal variant of the original problem. Here, we establish the underlying machine learning approach used to obtain these results and demonstrate its broader applicability through additional numerical insights.
- Abstract(参考訳): ニューラルネットワークが数学的発見をいかに進めるかを,一色単位距離対を避けながら平面の色付けに関わる離散幾何学と極端コンビネータの交点における長年の開問題であるHudwiger-Nelson問題(英語版)のケーススタディを通じて実証する。
ニューラルネットワークを近似器として使用し、確率的で微分可能な損失関数を用いた最適化タスクとして、この混合離散連続幾何着色問題をハード制約で再構成する。
これにより、勾配に基づく許容可能な構成の探索が可能となり、2つの新しい6色の色が発見され、元々の問題の対角線外変種に30年ぶりに改善された。
ここでは、これらの結果を得るための基盤となる機械学習アプローチを確立し、さらなる数値的な洞察を通じて、その適用性を示す。
関連論文リスト
- Efficient Graph Coloring with Neural Networks: A Physics-Inspired Approach for Large Graphs [0.0]
本稿では,特に大規模グラフにおいて,グラフニューラルネットワークを有効活用する新しいアルゴリズムを提案する。
本稿では,Erdos-Renyiグラフのデータセット上での手法の有効性を実証し,その適用性を示す。
論文 参考訳(メタデータ) (2024-08-02T18:02:51Z) - Scalable Bayesian Inference in the Era of Deep Learning: From Gaussian Processes to Deep Neural Networks [0.5827521884806072]
大規模なデータセットでトレーニングされた大規模なニューラルネットワークは、マシンラーニングの主要なパラダイムになっています。
この論文は、モデル不確実性を持つニューラルネットワークを装備するためのスケーラブルな手法を開発する。
論文 参考訳(メタデータ) (2024-04-29T23:38:58Z) - NeuralEF: Deconstructing Kernels by Deep Neural Networks [47.54733625351363]
従来のNystr"om式に基づく非パラメトリックなソリューションはスケーラビリティの問題に悩まされる。
最近の研究はパラメトリックなアプローチ、すなわち固有関数を近似するためにニューラルネットワークを訓練している。
教師なしおよび教師なしの学習問題の空間に一般化する新たな目的関数を用いて,これらの問題を解くことができることを示す。
論文 参考訳(メタデータ) (2022-04-30T05:31:07Z) - FuNNscope: Visual microscope for interactively exploring the loss
landscape of fully connected neural networks [77.34726150561087]
ニューラルネットワークの高次元景観特性を探索する方法を示す。
我々は、小さなニューラルネットワークの観測結果をより複雑なシステムに一般化する。
インタラクティブダッシュボードは、いくつかのアプリケーションネットワークを開放する。
論文 参考訳(メタデータ) (2022-04-09T16:41:53Z) - A singular Riemannian geometry approach to Deep Neural Networks II.
Reconstruction of 1-D equivalence classes [78.120734120667]
入力空間における出力多様体内の点の事前像を構築する。
我々は、n-次元実空間から(n-1)-次元実空間へのニューラルネットワークマップの場合の簡易性に焦点をあてる。
論文 参考訳(メタデータ) (2021-12-17T11:47:45Z) - Optimization-Based Separations for Neural Networks [57.875347246373956]
本研究では,2層のシグモダルアクティベーションを持つディープ2ニューラルネットワークを用いて,ボールインジケータ関数を効率よく学習できることを示す。
これは最適化に基づく最初の分離結果であり、より強力なアーキテクチャの近似の利点は、実際に確実に現れる。
論文 参考訳(メタデータ) (2021-12-04T18:07:47Z) - Deep Learning Chromatic and Clique Numbers of Graphs [0.0]
我々は,グラフの色数と最大斜めサイズを予測するためのディープラーニングモデルを開発した。
特に,深層ニューラルネットワーク,特に畳み込みニューラルネットワークは,この問題に対して高い性能が得られることを示す。
論文 参考訳(メタデータ) (2021-08-04T02:02:53Z) - Learning a Single Neuron with Bias Using Gradient Descent [53.15475693468925]
単一ニューロンをバイアス項で学習する基本的な問題について検討する。
これはバイアスのないケースとは大きく異なり、より難しい問題であることを示す。
論文 参考訳(メタデータ) (2021-06-02T12:09:55Z) - Multipole Graph Neural Operator for Parametric Partial Differential
Equations [57.90284928158383]
物理系をシミュレーションするためのディープラーニングベースの手法を使用する際の大きな課題の1つは、物理ベースのデータの定式化である。
線形複雑度のみを用いて、あらゆる範囲の相互作用をキャプチャする、新しいマルチレベルグラフニューラルネットワークフレームワークを提案する。
実験により, 離散化不変解演算子をPDEに学習し, 線形時間で評価できることを確認した。
論文 参考訳(メタデータ) (2020-06-16T21:56:22Z) - Understanding Graph Neural Networks with Generalized Geometric
Scattering Transforms [67.88675386638043]
散乱変換は、畳み込みニューラルネットワークのモデルとして機能する多層ウェーブレットベースのディープラーニングアーキテクチャである。
非対称ウェーブレットの非常に一般的なクラスに基づくグラフに対して、窓付きおよび非窓付き幾何散乱変換を導入する。
これらの非対称グラフ散乱変換は、対称グラフ散乱変換と多くの理論的保証を持つことを示す。
論文 参考訳(メタデータ) (2019-11-14T17:23:06Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。