論文の概要: Dolphin: A Programmable Framework for Scalable Neurosymbolic Learning
- arxiv url: http://arxiv.org/abs/2410.03348v1
- Date: Fri, 4 Oct 2024 12:12:36 GMT
- ステータス: 処理完了
- システム内更新日: 2024-11-02 22:48:52.599013
- Title: Dolphin: A Programmable Framework for Scalable Neurosymbolic Learning
- Title(参考訳): Dolphin: スケーラブルなニューロシンボリックラーニングのためのプログラム可能なフレームワーク
- Authors: Aaditya Naik, Jason Liu, Claire Wang, Saikat Dutta, Mayur Naik, Eric Wong,
- Abstract要約: 本稿では,シンボルプログラムの前方連鎖と後方勾配の伝播をベクトル化計算にマッピングすることにより,ニューロシンボリック学習を基本レベルでスケールする枠組みを提案する。
Dolphin氏は、PyTorchのような高性能なディープラーニングフレームワークの上に構築された一連の抽象化とプリミティブを紹介した。
我々はDolphinを、テキスト、画像、ビデオ処理のディープラーニングモデルとシンボリックプログラムを組み合わせた5つのニューロシンボリックタスクの13のベンチマークスイートで評価した。
- 参考スコア(独自算出の注目度): 18.50192747078987
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Neurosymbolic learning has emerged as a promising paradigm to incorporate symbolic reasoning into deep learning models. However, existing frameworks are limited in scalability with respect to both the training data and the complexity of symbolic programs. We propose Dolphin, a framework to scale neurosymbolic learning at a fundamental level by mapping both forward chaining and backward gradient propagation in symbolic programs to vectorized computations. For this purpose, Dolphin introduces a set of abstractions and primitives built directly on top of a high-performance deep learning framework like PyTorch, effectively enabling symbolic programs to be written as PyTorch modules. It thereby enables neurosymbolic programs to be written in a language like Python that is familiar to developers and compile them to computation graphs that are amenable to end-to-end differentiation on GPUs. We evaluate Dolphin on a suite of 13 benchmarks across 5 neurosymbolic tasks that combine deep learning models for text, image, or video processing with symbolic programs that involve multi-hop reasoning, recursion, and even black-box functions like Python eval(). Dolphin only takes 0.33%-37.17% of the time (and 2.77% on average) to train these models on the largest input per task compared to baselines Scallop, ISED, and IndeCateR+, which time out on most of these inputs. Models written in Dolphin also achieve state-of-the-art accuracies even on the largest benchmarks.
- Abstract(参考訳): ニューロシンボリック学習は、シンボリック推論をディープラーニングモデルに組み込むための有望なパラダイムとして登場した。
しかし、既存のフレームワークは、トレーニングデータとシンボリックプログラムの複雑さの両方に関してスケーラビリティに制限がある。
シンボルプログラムの前方連鎖と後方勾配の伝播をベクトル化計算にマッピングすることにより,神経記号学習を基本レベルでスケールするフレームワークであるDolphinを提案する。
この目的のためにDolphin氏は、PyTorchのような高性能なディープラーニングフレームワークの上に構築された一連の抽象化とプリミティブを導入し、シンボルプログラムをPyTorchモジュールとして書けるようにした。
これにより、開発者が慣れ親しんだPythonのような言語でニューロシンボリックプログラムを記述し、GPU上でのエンドツーエンドの差別化に寄与する計算グラフにコンパイルすることが可能になる。
我々はDolphinを、テキスト、画像、ビデオ処理のディープラーニングモデルとマルチホップ推論、再帰、さらにはPython eval()のようなブラックボックス関数を含むシンボリックプログラムを組み合わせた5つのニューロシンボリックタスクを対象とした13のベンチマークで評価した。
ドルフィンの訓練時間は0.33%-37.17%(平均2.77%)で、Scallop、ISED、IndeCateR+と比較すると最大である。
ドルフィンで書かれたモデルは、最大のベンチマークでも最先端の精度を達成する。
関連論文リスト
- CyNetDiff -- A Python Library for Accelerated Implementation of Network Diffusion Models [0.9831489366502302]
CyNetDiffはPythonライブラリで、Cythonで記述されている。
多くの研究課題において、これらのシミュレーションが最も計算集約的なタスクであるため、高水準言語へのインタフェースを備えたライブラリを持つことが望ましい。
論文 参考訳(メタデータ) (2024-04-25T21:59:55Z) - AI Coders Are Among Us: Rethinking Programming Language Grammar Towards Efficient Code Generation [14.831115535710692]
本稿では,AI指向文法の概念を提案する。
これは、AIモデルの動作メカニズムにより良い方法でコードを表現することを目的としています。
AI指向文法で書かれたコードはフォーマットを捨て、最小限のトークンを使用する。
論文 参考訳(メタデータ) (2024-04-25T04:46:02Z) - The Role of Foundation Models in Neuro-Symbolic Learning and Reasoning [54.56905063752427]
Neuro-Symbolic AI(NeSy)は、AIシステムの安全なデプロイを保証することを約束している。
ニューラルネットワークとシンボリックコンポーネントを順次トレーニングする既存のパイプラインは、広範なラベリングを必要とする。
新しいアーキテクチャであるNeSyGPTは、生データから象徴的特徴を抽出する視覚言語基盤モデルを微調整する。
論文 参考訳(メタデータ) (2024-02-02T20:33:14Z) - Catwalk: A Unified Language Model Evaluation Framework for Many Datasets [50.75378592254184]
Catwalkは、既存のNLPデータセットとモデルに統一されたインターフェースを提供する。
キャットウォークは、大規模に制御された実験を行うための障壁を著しく低くする。
論文 参考訳(メタデータ) (2023-12-15T23:11:45Z) - Natural Language Embedded Programs for Hybrid Language Symbolic Reasoning [84.12154024070024]
本研究では,数学・記号的推論,自然言語理解,後続の課題に対処するための統合フレームワークとして,自然言語組み込みプログラム(NLEP)を提案する。
我々のアプローチは,構造化知識の自然言語表現を含むデータ構造上の関数を定義する完全なPythonプログラムを生成するよう,言語モデルに促す。
Pythonインタープリタが生成されたコードを実行し、出力をプリントする。
論文 参考訳(メタデータ) (2023-09-19T17:54:21Z) - Scallop: A Language for Neurosymbolic Programming [14.148819428748597]
Scallopは、ディープラーニングと論理的推論の利点を組み合わせた言語である。
アルゴリズム推論を多様で困難なAIタスクで表現することができる。
機械学習プログラマが論理的なドメイン知識を統合するための簡潔なインターフェースを提供する。
論文 参考訳(メタデータ) (2023-04-10T18:46:53Z) - Program of Thoughts Prompting: Disentangling Computation from Reasoning
for Numerical Reasoning Tasks [108.4568236569645]
CoT(Chain-of-thinkts prompting)は、これらのタスクに対する最先端の手法である。
本稿では、言語モデルを用いて推論過程をプログラムとして表現する「思考プログラム(PoT)」を提案する。
PoTは、評価されたすべてのデータセットに対して、CoTに対する平均的なパフォーマンス向上を約12%示すことができる。
論文 参考訳(メタデータ) (2022-11-22T21:06:00Z) - Terra: Imperative-Symbolic Co-Execution of Imperative Deep Learning
Programs [7.656446581986389]
命令型プログラミングにより、ユーザはディープニューラルネットワーク(DNN)を簡単に実装できる。
命令型プログラミングのユーザビリティとシンボルグラフ実行の最適化性能を組み合わせるために,いくつかのシステムが提案されている。
本稿では,任意の命令型DLプログラムを処理し,シンボルグラフ実行の最適化性能を実現した命令型共実行システムTerraを提案する。
論文 参考訳(メタデータ) (2022-01-23T09:04:48Z) - Program Synthesis with Large Language Models [40.41120807053989]
我々はPythonにおけるプログラム合成のための大規模言語モデルを評価する。
合成性能はモデルサイズと対数的にスケールすることがわかった。
最高のモデルでさえ、特定の入力を与えられたプログラムの出力を予測できないことが分かりました。
論文 参考訳(メタデータ) (2021-08-16T03:57:30Z) - Representing Partial Programs with Blended Abstract Semantics [62.20775388513027]
プログラム合成エンジンにおける部分的なプログラム表現手法について紹介する。
モジュラーニューラルネットワークとして実装された近似実行モデルを学ぶ。
これらのハイブリッドニューロシンボリック表現は、実行誘導型シンセサイザーがより強力な言語構成を使うことができることを示す。
論文 参考訳(メタデータ) (2020-12-23T20:40:18Z) - OPFython: A Python-Inspired Optimum-Path Forest Classifier [68.8204255655161]
本稿では,OPFythonと表記されるPythonベースのOptimum-Path Forestフレームワークを提案する。
OPFythonはPythonベースのライブラリなので、C言語よりもフレンドリーな環境とプロトタイピングの作業スペースを提供する。
論文 参考訳(メタデータ) (2020-01-28T15:46:19Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。