論文の概要: Efficient Neuro-Symbolic Learning of Constraints and Objective
- arxiv url: http://arxiv.org/abs/2508.20978v1
- Date: Thu, 28 Aug 2025 16:33:27 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-29 18:12:02.514538
- Title: Efficient Neuro-Symbolic Learning of Constraints and Objective
- Title(参考訳): 制約と目的の効率的なニューロシンボリック学習
- Authors: Marianne Defresne, Romain Gambardella, Sophie Barbe, Thomas Schiex,
- Abstract要約: 本稿では,NP-ハード推論問題の解法を学習するために,識別可能なニューロシンボリックアーキテクチャと損失関数を導入する。
自然入力からNPハード推論問題の解法を効率よく学習できることを実証的に示す。
- 参考スコア(独自算出の注目度): 3.2198807619678074
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: In the ongoing quest for hybridizing discrete reasoning with neural nets, there is an increasing interest in neural architectures that can learn how to solve discrete reasoning or optimization problems from natural inputs, a task that Large Language Models seem to struggle with. Objectives: We introduce a differentiable neuro-symbolic architecture and a loss function dedicated to learning how to solve NP-hard reasoning problems. Methods: Our new probabilistic loss allows for learning both the constraints and the objective, thus delivering a complete model that can be scrutinized and completed with side constraints. By pushing the combinatorial solver out of the training loop, our architecture also offers scalable training while exact inference gives access to maximum accuracy. Results: We empirically show that it can efficiently learn how to solve NP-hard reasoning problems from natural inputs. On three variants of the Sudoku benchmark -- symbolic, visual, and many-solution --, our approach requires a fraction of training time of other hybrid methods. On a visual Min-Cut/Max-cut task, it optimizes the regret better than a Decision-Focused-Learning regret-dedicated loss. Finally, it efficiently learns the energy optimization formulation of the large real-world problem of designing proteins.
- Abstract(参考訳): ニューラルネットによる離散的推論をハイブリダイズしようとする動きの中で、離散的推論や最適化の問題を自然な入力からどのように解決するかを学ぶニューラルネットワークへの関心が高まっている。
目的: NP-ハード推論問題の解法を学習するために, 識別可能なニューロシンボリックアーキテクチャと損失関数を導入する。
メソッド: 新たな確率的損失は、制約と目的の両方を学習することを可能にする。
私たちのアーキテクチャは、組合せソルバをトレーニングループから押し出すことで、スケーラブルなトレーニングも提供します。
結果: 自然入力からNPハード推論問題の解法を効率よく学習できることを実証的に示す。
Sudokuベンチマークの3つの変種 -- 象徴的、視覚的、そして多くのソリューション -- では、私たちのアプローチは、他のハイブリッドメソッドのトレーニング時間の一部を必要としています。
視覚的なMin-Cut/Max-cutタスクでは、Decision-Focused-Learning regret-dedicated Losよりも後悔を最適化する。
最後に、タンパク質を設計する大規模な実世界の問題のエネルギー最適化の定式化を効率的に学習する。
関連論文リスト
- Neural Algorithmic Reasoning for Combinatorial Optimisation [20.36694807847833]
ニューラル推論の最近の進歩を活用して,CO問題の学習を改善することを提案する。
私たちは、COインスタンスでトレーニングする前に、関連するアルゴリズムでニューラルネットワークを事前トレーニングすることを提案します。
以上の結果から,この学習装置を用いることで,非アルゴリズム的情報深層学習モデルよりも優れた性能が得られることが示された。
論文 参考訳(メタデータ) (2023-05-18T13:59:02Z) - Scalable Coupling of Deep Learning with Logical Reasoning [0.0]
NPハード推論問題の制約と基準を学習するために,スケーラブルなニューラルアーキテクチャと損失関数を導入する。
我々の損失関数は、Besagの擬似対数関係の主な制限の1つを解き、高エネルギーの学習を可能にする。
論文 参考訳(メタデータ) (2023-05-12T17:09:34Z) - Neuro-Symbolic Learning of Answer Set Programs from Raw Data [54.56905063752427]
Neuro-Symbolic AIは、シンボリックテクニックの解釈可能性と、生データから学ぶ深層学習の能力を組み合わせることを目的としている。
本稿では,ニューラルネットワークを用いて生データから潜在概念を抽出するNSIL(Neuro-Symbolic Inductive Learner)を提案する。
NSILは表現力のある知識を学習し、計算的に複雑な問題を解き、精度とデータ効率の観点から最先端のパフォーマンスを達成する。
論文 参考訳(メタデータ) (2022-05-25T12:41:59Z) - Generalization of Neural Combinatorial Solvers Through the Lens of
Adversarial Robustness [68.97830259849086]
ほとんどのデータセットは単純なサブプロブレムのみをキャプチャし、おそらくは突発的な特徴に悩まされる。
本研究では, 局所的な一般化特性である対向ロバスト性について検討し, 厳密でモデル固有な例と突発的な特徴を明らかにする。
他のアプリケーションとは異なり、摂動モデルは知覚できないという主観的な概念に基づいて設計されているため、摂動モデルは効率的かつ健全である。
驚くべきことに、そのような摂動によって、十分に表現力のあるニューラルソルバは、教師あり学習で共通する正確さと悪質さのトレードオフの限界に悩まされない。
論文 参考訳(メタデータ) (2021-10-21T07:28:11Z) - Meta-Solver for Neural Ordinary Differential Equations [77.8918415523446]
本研究では,ソルバ空間の変動がニューラルODEの性能を向上する方法について検討する。
解法パラメータ化の正しい選択は, 敵の攻撃に対するロバスト性の観点から, 神経odesモデルに大きな影響を与える可能性がある。
論文 参考訳(メタデータ) (2021-03-15T17:26:34Z) - Strong Generalization and Efficiency in Neural Programs [69.18742158883869]
本稿では,ニューラルプログラム誘導の枠組みを強く一般化する効率的なアルゴリズムを学習する問題について検討する。
ニューラルネットワークの入力/出力インターフェースを慎重に設計し、模倣することで、任意の入力サイズに対して正しい結果を生成するモデルを学ぶことができる。
論文 参考訳(メタデータ) (2020-07-07T17:03:02Z) - Belief Propagation Reloaded: Learning BP-Layers for Labeling Problems [83.98774574197613]
最も単純な推論手法の1つとして、切り詰められた最大積のBelief伝播を取り上げ、それをディープラーニングモデルの適切なコンポーネントにするために必要となるものを加えます。
このBP-Layerは畳み込みニューラルネットワーク(CNN)の最終ブロックまたは中間ブロックとして使用できる
このモデルは様々な密集予測問題に適用可能であり、パラメータ効率が高く、ステレオ、光フロー、セマンティックセグメンテーションにおける堅牢な解を提供する。
論文 参考訳(メタデータ) (2020-03-13T13:11:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。