論文の概要: Dolphin: A Programmable Framework for Scalable Neurosymbolic Learning
- arxiv url: http://arxiv.org/abs/2410.03348v1
- Date: Fri, 4 Oct 2024 12:12:36 GMT
- ステータス: 処理完了
- システム内更新日: 2024-11-02 22:48:52.599013
- Title: Dolphin: A Programmable Framework for Scalable Neurosymbolic Learning
- Title(参考訳): Dolphin: スケーラブルなニューロシンボリックラーニングのためのプログラム可能なフレームワーク
- Authors: Aaditya Naik, Jason Liu, Claire Wang, Saikat Dutta, Mayur Naik, Eric Wong,
- Abstract要約: 本稿では,シンボルプログラムの前方連鎖と後方勾配の伝播をベクトル化計算にマッピングすることにより,ニューロシンボリック学習を基本レベルでスケールする枠組みを提案する。
Dolphin氏は、PyTorchのような高性能なディープラーニングフレームワークの上に構築された一連の抽象化とプリミティブを紹介した。
我々はDolphinを、テキスト、画像、ビデオ処理のディープラーニングモデルとシンボリックプログラムを組み合わせた5つのニューロシンボリックタスクの13のベンチマークスイートで評価した。
- 参考スコア(独自算出の注目度): 18.50192747078987
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Neurosymbolic learning has emerged as a promising paradigm to incorporate symbolic reasoning into deep learning models. However, existing frameworks are limited in scalability with respect to both the training data and the complexity of symbolic programs. We propose Dolphin, a framework to scale neurosymbolic learning at a fundamental level by mapping both forward chaining and backward gradient propagation in symbolic programs to vectorized computations. For this purpose, Dolphin introduces a set of abstractions and primitives built directly on top of a high-performance deep learning framework like PyTorch, effectively enabling symbolic programs to be written as PyTorch modules. It thereby enables neurosymbolic programs to be written in a language like Python that is familiar to developers and compile them to computation graphs that are amenable to end-to-end differentiation on GPUs. We evaluate Dolphin on a suite of 13 benchmarks across 5 neurosymbolic tasks that combine deep learning models for text, image, or video processing with symbolic programs that involve multi-hop reasoning, recursion, and even black-box functions like Python eval(). Dolphin only takes 0.33%-37.17% of the time (and 2.77% on average) to train these models on the largest input per task compared to baselines Scallop, ISED, and IndeCateR+, which time out on most of these inputs. Models written in Dolphin also achieve state-of-the-art accuracies even on the largest benchmarks.
- Abstract(参考訳): ニューロシンボリック学習は、シンボリック推論をディープラーニングモデルに組み込むための有望なパラダイムとして登場した。
しかし、既存のフレームワークは、トレーニングデータとシンボリックプログラムの複雑さの両方に関してスケーラビリティに制限がある。
シンボルプログラムの前方連鎖と後方勾配の伝播をベクトル化計算にマッピングすることにより,神経記号学習を基本レベルでスケールするフレームワークであるDolphinを提案する。
この目的のためにDolphin氏は、PyTorchのような高性能なディープラーニングフレームワークの上に構築された一連の抽象化とプリミティブを導入し、シンボルプログラムをPyTorchモジュールとして書けるようにした。
これにより、開発者が慣れ親しんだPythonのような言語でニューロシンボリックプログラムを記述し、GPU上でのエンドツーエンドの差別化に寄与する計算グラフにコンパイルすることが可能になる。
我々はDolphinを、テキスト、画像、ビデオ処理のディープラーニングモデルとマルチホップ推論、再帰、さらにはPython eval()のようなブラックボックス関数を含むシンボリックプログラムを組み合わせた5つのニューロシンボリックタスクを対象とした13のベンチマークで評価した。
ドルフィンの訓練時間は0.33%-37.17%(平均2.77%)で、Scallop、ISED、IndeCateR+と比較すると最大である。
ドルフィンで書かれたモデルは、最大のベンチマークでも最先端の精度を達成する。
関連論文リスト
- Dolphin: Closed-loop Open-ended Auto-research through Thinking, Practice, and Feedback [71.89119648053396]
我々は,最初のクローズドループオープンエンド自動検索フレームワークであるDolphinを提案する。
ドルフィンは研究アイデアを生成し、実験を行い、実験結果からフィードバックを得て、高品質なアイデアを生成することができる。
我々は,Dolphinが2次元画像分類や3次元点分類といったタスクにおいて,最先端技術に匹敵する手法を自動提案できることを強調した。
論文 参考訳(メタデータ) (2025-01-07T16:31:10Z) - Compositional Generalization Across Distributional Shifts with Sparse Tree Operations [77.5742801509364]
我々は、微分可能木機械と呼ばれる統合されたニューロシンボリックアーキテクチャを導入する。
シンボル構造の疎ベクトル表現を用いることで,モデルの効率を大幅に向上する。
より一般的なseq2seq問題に制限されたtree2tree問題以外の適用を可能にする。
論文 参考訳(メタデータ) (2024-12-18T17:20:19Z) - Discovering symbolic expressions with parallelized tree search [59.92040079807524]
記号回帰は、データから簡潔で解釈可能な数学的表現を発見する能力のおかげで、科学研究において重要な役割を果たす。
既存のアルゴリズムは、複雑性の問題に対処する際の精度と効率の重要なボトルネックに直面してきた。
本稿では,限定データから汎用数学的表現を効率的に抽出する並列木探索(PTS)モデルを提案する。
論文 参考訳(メタデータ) (2024-07-05T10:41:15Z) - Deep Symbolic Optimization for Combinatorial Optimization: Accelerating Node Selection by Discovering Potential Heuristics [10.22111332588471]
本稿では,その利点を生かした,新しい記号的最適化学習フレームワークを提案する。
Dso4NSは高次元離散記号空間内の数学的表現の探索をガイドし、最高性能の数学的表現を解法に組み込む。
実験では、Dso4NSが高品質な表現の学習に有効であることを示し、CPUマシンにおける既存のアプローチよりも優れていた。
論文 参考訳(メタデータ) (2024-06-14T06:02:14Z) - The Role of Foundation Models in Neuro-Symbolic Learning and Reasoning [54.56905063752427]
Neuro-Symbolic AI(NeSy)は、AIシステムの安全なデプロイを保証することを約束している。
ニューラルネットワークとシンボリックコンポーネントを順次トレーニングする既存のパイプラインは、広範なラベリングを必要とする。
新しいアーキテクチャであるNeSyGPTは、生データから象徴的特徴を抽出する視覚言語基盤モデルを微調整する。
論文 参考訳(メタデータ) (2024-02-02T20:33:14Z) - Scallop: A Language for Neurosymbolic Programming [14.148819428748597]
Scallopは、ディープラーニングと論理的推論の利点を組み合わせた言語である。
アルゴリズム推論を多様で困難なAIタスクで表現することができる。
機械学習プログラマが論理的なドメイン知識を統合するための簡潔なインターフェースを提供する。
論文 参考訳(メタデータ) (2023-04-10T18:46:53Z) - Symbolic Visual Reinforcement Learning: A Scalable Framework with
Object-Level Abstraction and Differentiable Expression Search [63.3745291252038]
DiffSESは、離散的なシンボルポリシーを発見する新しいシンボリック学習手法である。
生のピクセルレベルの入力の代わりにオブジェクトレベルの抽象化を使用することで、DiffSESはシンボリック表現の単純さとスケーラビリティの利点を活用することができる。
我々の実験は、DiffSESが最先端のシンボルRL法よりもシンプルでスケーラブルなシンボリックポリシーを生成することができることを示した。
論文 参考訳(メタデータ) (2022-12-30T17:50:54Z) - NAPG: Non-Autoregressive Program Generation for Hybrid Tabular-Textual
Question Answering [52.10214317661547]
現在の数値推論法はプログラムシーケンスを自己回帰的にデコードする。
プログラム生成の精度は、デコードステップがエラー伝搬によって展開されるにつれて急激に低下する。
本稿では,非自己回帰型プログラム生成フレームワークを提案する。
論文 参考訳(メタデータ) (2022-11-07T11:25:21Z) - Terra: Imperative-Symbolic Co-Execution of Imperative Deep Learning
Programs [7.656446581986389]
命令型プログラミングにより、ユーザはディープニューラルネットワーク(DNN)を簡単に実装できる。
命令型プログラミングのユーザビリティとシンボルグラフ実行の最適化性能を組み合わせるために,いくつかのシステムが提案されている。
本稿では,任意の命令型DLプログラムを処理し,シンボルグラフ実行の最適化性能を実現した命令型共実行システムTerraを提案する。
論文 参考訳(メタデータ) (2022-01-23T09:04:48Z) - SLASH: Embracing Probabilistic Circuits into Neural Answer Set
Programming [15.814914345000574]
SLASH(Deep Probabilistic Language:DPPL)を紹介します。
SLASHのコアとなるのは、NPP(Neural-Probabilistic Predicates)と、応答セットプログラミングを通じて統合された論理プログラムである。
我々は,MNIST加算のベンチマークデータとDPPLの欠落データ予測や最先端性能のセット予測といった新しいタスクに基づいてSLASHを評価する。
論文 参考訳(メタデータ) (2021-10-07T12:35:55Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。