論文の概要: Answer Set Networks: Casting Answer Set Programming into Deep Learning
- arxiv url: http://arxiv.org/abs/2412.14814v1
- Date: Thu, 19 Dec 2024 13:09:06 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-12-20 13:32:29.599255
- Title: Answer Set Networks: Casting Answer Set Programming into Deep Learning
- Title(参考訳): 解答集合ネットワーク:解答集合プログラミングをディープラーニングにキャストする
- Authors: Arseny Skryagin, Daniel Ochs, Phillip Deibert, Simon Kohaut, Devendra Singh Dhami, Kristian Kersting,
- Abstract要約: ASNは、ASPベースのDeep Probabilistic Logic Programming (DPPL)に対するスケーラブルなアプローチである。
我々は、ASPをASNに変換する方法を示し、GPUと並列化機能を活用して、ASNがエンコードされた問題を効率的に解く方法を示す。
我々はまず、DPPLによる大規模言語モデルの微調整を示し、ASNを用いてロジックによるトレーニングを指導する。
- 参考スコア(独自算出の注目度): 18.633308532375192
- License:
- Abstract: Although Answer Set Programming (ASP) allows constraining neural-symbolic (NeSy) systems, its employment is hindered by the prohibitive costs of computing stable models and the CPU-bound nature of state-of-the-art solvers. To this end, we propose Answer Set Networks (ASN), a NeSy solver. Based on Graph Neural Networks (GNN), ASNs are a scalable approach to ASP-based Deep Probabilistic Logic Programming (DPPL). Specifically, we show how to translate ASPs into ASNs and demonstrate how ASNs can efficiently solve the encoded problem by leveraging GPU's batching and parallelization capabilities. Our experimental evaluations demonstrate that ASNs outperform state-of-the-art CPU-bound NeSy systems on multiple tasks. Simultaneously, we make the following two contributions based on the strengths of ASNs. Namely, we are the first to show the finetuning of Large Language Models (LLM) with DPPLs, employing ASNs to guide the training with logic. Further, we show the "constitutional navigation" of drones, i.e., encoding public aviation laws in an ASN for routing Unmanned Aerial Vehicles in uncertain environments.
- Abstract(参考訳): Answer Set Programming (ASP)は、ニューラルシンボリック(NeSy)システムの制約を許容するが、その雇用は、安定モデル計算の禁止コストと最先端の問題解決者のCPUバウンドの性質によって妨げられている。
そこで我々は,NeSyソルバであるAnswer Set Networks (ASN)を提案する。
Graph Neural Networks (GNN)に基づいて、ASNはASPベースのDeep Probabilistic Logic Programming (DPPL)に対するスケーラブルなアプローチである。
具体的には、ASPをASNに変換する方法を示し、GPUのバッチ処理と並列化機能を活用して、ASNがエンコードされた問題を効率的に解く方法を示す。
実験により、ASNは複数のタスクにおいて最先端のCPUバウンドNeSyシステムより優れていることが示された。
同時に、ASNの強みに基づいて、以下の2つのコントリビューションを行います。
すなわち、我々はDPPLによるLLM(Large Language Models)の微調整を初めて示し、ASNを使ってロジックによるトレーニングをガイドしています。
さらに、無人航空機を不確実な環境でルーティングするためのASNにおいて、公共航空法を符号化するドローンの「構成航法」を示す。
関連論文リスト
- Improving the Performance of Echo State Networks Through State Feedback [0.0]
非線形力学系を用いた貯留層計算は、ニューラルネットワークに代わる費用対効果を提供する。
ESNの潜在的な欠点は、固定された貯水池が特定の問題に必要な複雑さを提供していないことである。
本稿では, 貯留状態の一部の成分を入力を介してネットワークにフィードバックすることにより, 所定のESNの性能を大幅に向上させることができることを示す。
論文 参考訳(メタデータ) (2023-12-23T02:34:50Z) - Forget-free Continual Learning with Soft-Winning SubNetworks [67.0373924836107]
本稿では,各タスクに対して適応バイナリ(WSN)と非バイナリサブネット(SoftNet)を逐次学習し,選択する2つの連続学習手法について検討する。
WSNとSoftNetは、各タスクに関連する作業の正規化モデルウェイトとタスク適応非バイナリマスクを共同で学習する。
タスクインクリメンタルラーニング(TIL)では、当選チケット毎に生成されるバイナリマスクを1つのNビットのバイナリディジットマスクにエンコードし、ハフマン符号化を用いてタスク数に対するネットワーク容量のサブ線形増加のために圧縮する。
論文 参考訳(メタデータ) (2023-03-27T07:53:23Z) - Intelligence Processing Units Accelerate Neuromorphic Learning [52.952192990802345]
スパイキングニューラルネットワーク(SNN)は、エネルギー消費と遅延の観点から、桁違いに改善されている。
我々は、カスタムSNN PythonパッケージsnnTorchのIPU最適化リリースを提示する。
論文 参考訳(メタデータ) (2022-11-19T15:44:08Z) - Signal Processing for Implicit Neural Representations [80.38097216996164]
Inlicit Neural Representation (INR)は、マルチ層パーセプトロンを介して連続したマルチメディアデータを符号化する。
既存の作業は、その離散化されたインスタンスの処理を通じて、そのような連続的な表現を操作する。
本稿では,INSP-Netと呼ばれる暗黙的ニューラル信号処理ネットワークを提案する。
論文 参考訳(メタデータ) (2022-10-17T06:29:07Z) - Neural Implicit Dictionary via Mixture-of-Expert Training [111.08941206369508]
ニューラルインシシット辞書(NID)を学習することで、データとトレーニング効率の両方を達成する汎用INRフレームワークを提案する。
我々のNIDは、所望の関数空間にまたがるように調整された座標ベースのImpworksのグループを組み立てる。
実験の結果,NIDは最大98%の入力データで2次元画像や3次元シーンの再現を2桁高速化できることがわかった。
論文 参考訳(メタデータ) (2022-07-08T05:07:19Z) - Neural Sequence-to-grid Module for Learning Symbolic Rules [14.946594806351971]
入力シーケンスを自動的にグリッドに分割して整列する入力プリプロセッサであるニューラルシーケンス・ツー・グリッド(seq2grid)モジュールを提案する。
私たちのモジュールは、新しい微分可能なマッピングを介してグリッドを出力するため、ResNetやTextCNNなどのグリッド入力を取るニューラルネットワーク構造は、モジュールと共同でトレーニングすることができます。
論文 参考訳(メタデータ) (2021-01-13T07:53:14Z) - Learning to Execute Programs with Instruction Pointer Attention Graph
Neural Networks [55.98291376393561]
グラフニューラルネットワーク(GNN)は、ソフトウェアエンジニアリングタスクを学習するための強力なツールとして登場した。
リカレントニューラルネットワーク(RNN)は、長いシーケンシャルな推論の連鎖に適しているが、プログラム構造を自然に組み込んでいるわけではない。
本稿では,新しいGNNアーキテクチャ,IPA-GNN(Instruction Pointer Attention Graph Neural Networks)を導入する。
論文 参考訳(メタデータ) (2020-10-23T19:12:30Z) - Extending Answer Set Programs with Neural Networks [2.512827436728378]
ニューラルネットワークを導入することで、応答セットプログラムをシンプルに拡張するNeurASPを提案する。
我々は、NeurASPがトレーニング済みニューラルネットワークの知覚精度を向上できるだけでなく、論理ルールによる制約を与えることで、ニューラルネットワークをより良くトレーニングできることを示した。
論文 参考訳(メタデータ) (2020-09-22T00:52:30Z) - Compositional Generalization via Neural-Symbolic Stack Machines [99.79811868836248]
合成一般化における制限に対処するためのNear-Symbolic Stack Machine (NeSS)を提案する。
NeSSは、ニューラルネットワークモデルの表現力と、シンボリックスタックマシンが支持する再帰を結合する。
NeSSは4つの領域で100%の一般化性能を達成する。
論文 参考訳(メタデータ) (2020-08-15T06:23:20Z) - Insights on Training Neural Networks for QUBO Tasks [8.784674687542603]
現在のハードウェア制限は、二次的制約のないバイナリ最適化問題を解く際のポテンシャルを制限する。
我々は、任意のQUBO問題を解決するためにニューラルネットワークを訓練し、スケッチ手段は、量子コンピューティングのためのシミュレータや追加のコプロセッサとしてニューロモルフィックハードウェアを使用する。
論文 参考訳(メタデータ) (2020-04-29T09:09:17Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。