論文の概要: Differentiable Inductive Logic Programming in High-Dimensional Space
- arxiv url: http://arxiv.org/abs/2208.06652v3
- Date: Sat, 19 Aug 2023 07:36:45 GMT
- ステータス: 処理完了
- システム内更新日: 2023-08-23 02:56:22.563363
- Title: Differentiable Inductive Logic Programming in High-Dimensional Space
- Title(参考訳): 高次元空間における微分可能帰納論理プログラミング
- Authors: Stanis{\l}aw J. Purga{\l}, David M. Cerna, Cezary Kaliszyk
- Abstract要約: 大規模述語によるインダクティブ合成へのデルタILPアプローチの拡張を提案する。
大規模述語発明は,勾配降下による誘導的合成の微分に有効であることを示す。
- 参考スコア(独自算出の注目度): 6.21540494241516
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Synthesizing large logic programs through symbolic Inductive Logic
Programming (ILP) typically requires intermediate definitions. However,
cluttering the hypothesis space with intensional predicates typically degrades
performance. In contrast, gradient descent provides an efficient way to find
solutions within such high-dimensional spaces. Neuro-symbolic ILP approaches
have not fully exploited this so far. We propose extending the {\delta}ILP
approach to inductive synthesis with large-scale predicate invention, thus
allowing us to exploit the efficacy of high-dimensional gradient descent. We
show that large-scale predicate invention benefits differentiable inductive
synthesis through gradient descent and allows one to learn solutions for tasks
beyond the capabilities of existing neuro-symbolic ILP systems. Furthermore, we
achieve these results without specifying the precise structure of the solution
within the language bias.
- Abstract(参考訳): シンボリック帰納論理プログラミング(ilp)による大規模論理プログラムの合成には、通常中間の定義が必要である。
しかし、インテンション述語で仮説空間を散らかすとパフォーマンスが低下する。
対照的に、勾配降下はそのような高次元空間内の解を見つける効率的な方法を提供する。
ニューロシンボリック ilp アプローチは、今のところ完全には活用されていない。
我々は,大規模述語による帰納的合成への {\delta}ilpアプローチの拡張を提案し,高次元勾配降下の有効性を生かした。
大規模述語発明は、勾配降下による微分誘導的合成の利点を生かし、既存のニューロシンボリックLPシステムの能力を超えた課題の解を学習できるようにする。
さらに,言語バイアス内の解の正確な構造を規定することなく,これらの結果を得る。
関連論文リスト
- Logic-induced Diagnostic Reasoning for Semi-supervised Semantic
Segmentation [85.12429517510311]
LogicDiagは、セマンティックセグメンテーションのためのニューラルネットワークによる半教師付き学習フレームワークである。
私たちの重要な洞察は、記号的知識によって識別される擬似ラベル内の衝突は、強いが一般的に無視される学習信号として機能する、ということです。
本稿では,論理規則の集合として意味論的概念の構造的抽象化を定式化するデータ・ハングリーセグメンテーションシナリオにおけるLogicDiagの実践的応用について紹介する。
論文 参考訳(メタデータ) (2023-08-24T06:50:07Z) - logLTN: Differentiable Fuzzy Logic in the Logarithm Space [11.440949097704943]
文学におけるトレンドは、論理記号とニューラルネットワークとファジィ意味論を接地することで、損失関数の公理と事実を統合することである。
本稿では,対数空間の終端を基底とするファジィ演算子の構成について述べる。
以上の結果から,提案した構成が現状よりも優れていたことが示唆された。
論文 参考訳(メタデータ) (2023-06-26T09:39:05Z) - Towards Invertible Semantic-Preserving Embeddings of Logical Formulae [1.0152838128195467]
論理的要件とルールの学習と最適化は、人工知能において常に重要な問題である。
現在のメソッドは、カーネルメソッドを介して効果的なセマンティック保存の埋め込みを構築することができるが、それらが定義するマップは可逆ではない。
本稿では,グラフ変分オートエンコーダフレームワークに基づく深層アーキテクチャを応用した埋め込みの逆変換法について述べる。
論文 参考訳(メタデータ) (2023-05-03T10:49:01Z) - Implicit Stochastic Gradient Descent for Training Physics-informed
Neural Networks [51.92362217307946]
物理インフォームドニューラルネットワーク(PINN)は、前方および逆微分方程式問題の解法として効果的に実証されている。
PINNは、近似すべきターゲット関数が高周波またはマルチスケールの特徴を示す場合、トレーニング障害に閉じ込められる。
本稿では,暗黙的勾配降下法(ISGD)を用いてPINNを訓練し,トレーニングプロセスの安定性を向上させることを提案する。
論文 参考訳(メタデータ) (2023-03-03T08:17:47Z) - Neural Combinatorial Logic Circuit Synthesis from Input-Output Examples [10.482805367361818]
本稿では,入力出力の例から論理回路を合成するための,新しい完全説明可能なニューラルアプローチを提案する。
我々の方法は、ほぼ任意の原子の選択に利用できる。
論文 参考訳(メタデータ) (2022-10-29T14:06:42Z) - Semantic Probabilistic Layers for Neuro-Symbolic Learning [83.25785999205932]
我々は構造化出力予測(SOP)のための予測層を設計する。
予測が事前に定義されたシンボリック制約のセットと一致していることを保証するため、任意のニューラルネットワークにプラグインすることができる。
我々のセマンティック確率層(SPL)は、構造化された出力空間上で複雑な相関や制約をモデル化することができる。
論文 参考訳(メタデータ) (2022-06-01T12:02:38Z) - GALOIS: Boosting Deep Reinforcement Learning via Generalizable Logic
Synthesis [34.54658276390227]
深層強化学習(DRL)は複雑な問題における学習と一般化に関する高次知能を欠いている。
従来の研究は、論理駆動の振る舞いを示すDRLポリシーとして、ホワイトボックス論理プログラムを直接合成しようと試みていた。
本稿では,階層的かつ厳密な因果論理プログラムを合成するためのGALOIS(Generalizable Logic Synthesis)フレームワークを提案する。
論文 参考訳(メタデータ) (2022-05-27T02:50:13Z) - Activation Relaxation: A Local Dynamical Approximation to
Backpropagation in the Brain [62.997667081978825]
活性化緩和(AR)は、バックプロパゲーション勾配を力学系の平衡点として構成することで動機付けられる。
我々のアルゴリズムは、正しいバックプロパゲーション勾配に迅速かつ堅牢に収束し、単一のタイプの計算単位しか必要とせず、任意の計算グラフで操作できる。
論文 参考訳(メタデータ) (2020-09-11T11:56:34Z) - Cogradient Descent for Bilinear Optimization [124.45816011848096]
双線形問題に対処するために、CoGDアルゴリズム(Cogradient Descent Algorithm)を導入する。
一方の変数は、他方の変数との結合関係を考慮し、同期勾配降下をもたらす。
本アルゴリズムは,空間的制約下での1変数の問題を解くために応用される。
論文 参考訳(メタデータ) (2020-06-16T13:41:54Z) - Physarum Powered Differentiable Linear Programming Layers and
Applications [48.77235931652611]
一般線形プログラミング問題に対する効率的かつ微分可能な解法を提案する。
本稿では,ビデオセグメンテーションタスクとメタラーニングにおける問題解決手法について述べる。
論文 参考訳(メタデータ) (2020-04-30T01:50:37Z) - Towards Neural-Guided Program Synthesis for Linear Temporal Logic
Specifications [26.547133495699093]
ニューラルネットワークを用いてQ関数を学習し、探索を誘導し、その後正当性を検証したプログラムを構築する。
提案手法は,検索と深層学習を組み合わせることで,合成を実現するのにユニークな手法である。
論文 参考訳(メタデータ) (2019-12-31T17:09:49Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。