論文の概要: Neural Discovery in Mathematics: Do Machines Dream of Colored Planes?
- arxiv url: http://arxiv.org/abs/2501.18527v1
- Date: Thu, 30 Jan 2025 17:44:34 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-01-31 15:13:51.811713
- Title: Neural Discovery in Mathematics: Do Machines Dream of Colored Planes?
- Title(参考訳): 数学におけるニューラルディスカバリー:機械は色付き平面を夢見るのか?
- Authors: Konrad Mundinger, Max Zimmer, Aldo Kiem, Christoph Spiegel, Sebastian Pokutta,
- Abstract要約: ニューラルネットワークがHudwiger-Nelson問題のケーススタディを通じて数学的発見を促進する方法を示す。
ニューラルネットワークを近似器として使用し、この混合離散連続幾何着色問題を最適化タスクとして再構成する。
これにより、許容可能な構成の勾配に基づく探索が可能となり、2つの新しい6色の発見につながった。
- 参考スコア(独自算出の注目度): 21.02602149305327
- License:
- Abstract: We demonstrate how neural networks can drive mathematical discovery through a case study of the Hadwiger-Nelson problem, a long-standing open problem from discrete geometry and combinatorics about coloring the plane avoiding monochromatic unit-distance pairs. Using neural networks as approximators, we reformulate this mixed discrete-continuous geometric coloring problem as an optimization task with a probabilistic, differentiable loss function. This enables gradient-based exploration of admissible configurations that most significantly led to the discovery of two novel six-colorings, providing the first improvements in thirty years to the off-diagonal variant of the original problem (Mundinger et al., 2024a). Here, we establish the underlying machine learning approach used to obtain these results and demonstrate its broader applicability through additional results and numerical insights.
- Abstract(参考訳): ニューラルネットワークがハドウィガー・ネルソン問題(英語版)のケーススタディを通じて数学的発見をいかに進めるかを実証する。これは、離散幾何学と単色単位距離対を避けるために平面を着色することに関するコンビネータ学の長年の未解決問題である。
ニューラルネットワークを近似器として使用し、この混合離散連続幾何色付け問題を確率的・微分可能な損失関数を用いた最適化タスクとして再構成する。
これにより、2つの新しい6色の変色が発見され、30年ぶりに元の問題(Mundinger et al , 2024a)の対角線外変色に改良が加えられた。
ここでは、これらの結果を得るための基盤となる機械学習アプローチを確立し、さらなる結果と数値的な洞察を通じて、その適用性を実証する。
関連論文リスト
- Efficient Graph Coloring with Neural Networks: A Physics-Inspired Approach for Large Graphs [0.0]
本稿では,特に大規模グラフにおいて,グラフニューラルネットワークを有効活用する新しいアルゴリズムを提案する。
本稿では,Erdos-Renyiグラフのデータセット上での手法の有効性を実証し,その適用性を示す。
論文 参考訳(メタデータ) (2024-08-02T18:02:51Z) - Scalable Bayesian Inference in the Era of Deep Learning: From Gaussian Processes to Deep Neural Networks [0.5827521884806072]
大規模なデータセットでトレーニングされた大規模なニューラルネットワークは、マシンラーニングの主要なパラダイムになっています。
この論文は、モデル不確実性を持つニューラルネットワークを装備するためのスケーラブルな手法を開発する。
論文 参考訳(メタデータ) (2024-04-29T23:38:58Z) - NeuralEF: Deconstructing Kernels by Deep Neural Networks [47.54733625351363]
従来のNystr"om式に基づく非パラメトリックなソリューションはスケーラビリティの問題に悩まされる。
最近の研究はパラメトリックなアプローチ、すなわち固有関数を近似するためにニューラルネットワークを訓練している。
教師なしおよび教師なしの学習問題の空間に一般化する新たな目的関数を用いて,これらの問題を解くことができることを示す。
論文 参考訳(メタデータ) (2022-04-30T05:31:07Z) - FuNNscope: Visual microscope for interactively exploring the loss
landscape of fully connected neural networks [77.34726150561087]
ニューラルネットワークの高次元景観特性を探索する方法を示す。
我々は、小さなニューラルネットワークの観測結果をより複雑なシステムに一般化する。
インタラクティブダッシュボードは、いくつかのアプリケーションネットワークを開放する。
論文 参考訳(メタデータ) (2022-04-09T16:41:53Z) - A singular Riemannian geometry approach to Deep Neural Networks II.
Reconstruction of 1-D equivalence classes [78.120734120667]
入力空間における出力多様体内の点の事前像を構築する。
我々は、n-次元実空間から(n-1)-次元実空間へのニューラルネットワークマップの場合の簡易性に焦点をあてる。
論文 参考訳(メタデータ) (2021-12-17T11:47:45Z) - Optimization-Based Separations for Neural Networks [57.875347246373956]
本研究では,2層のシグモダルアクティベーションを持つディープ2ニューラルネットワークを用いて,ボールインジケータ関数を効率よく学習できることを示す。
これは最適化に基づく最初の分離結果であり、より強力なアーキテクチャの近似の利点は、実際に確実に現れる。
論文 参考訳(メタデータ) (2021-12-04T18:07:47Z) - Deep Learning Chromatic and Clique Numbers of Graphs [0.0]
我々は,グラフの色数と最大斜めサイズを予測するためのディープラーニングモデルを開発した。
特に,深層ニューラルネットワーク,特に畳み込みニューラルネットワークは,この問題に対して高い性能が得られることを示す。
論文 参考訳(メタデータ) (2021-08-04T02:02:53Z) - Learning a Single Neuron with Bias Using Gradient Descent [53.15475693468925]
単一ニューロンをバイアス項で学習する基本的な問題について検討する。
これはバイアスのないケースとは大きく異なり、より難しい問題であることを示す。
論文 参考訳(メタデータ) (2021-06-02T12:09:55Z) - Multipole Graph Neural Operator for Parametric Partial Differential
Equations [57.90284928158383]
物理系をシミュレーションするためのディープラーニングベースの手法を使用する際の大きな課題の1つは、物理ベースのデータの定式化である。
線形複雑度のみを用いて、あらゆる範囲の相互作用をキャプチャする、新しいマルチレベルグラフニューラルネットワークフレームワークを提案する。
実験により, 離散化不変解演算子をPDEに学習し, 線形時間で評価できることを確認した。
論文 参考訳(メタデータ) (2020-06-16T21:56:22Z) - Understanding Graph Neural Networks with Generalized Geometric
Scattering Transforms [67.88675386638043]
散乱変換は、畳み込みニューラルネットワークのモデルとして機能する多層ウェーブレットベースのディープラーニングアーキテクチャである。
非対称ウェーブレットの非常に一般的なクラスに基づくグラフに対して、窓付きおよび非窓付き幾何散乱変換を導入する。
これらの非対称グラフ散乱変換は、対称グラフ散乱変換と多くの理論的保証を持つことを示す。
論文 参考訳(メタデータ) (2019-11-14T17:23:06Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。