論文の概要: Neuro-Symbolic Execution of Generic Source Code
- arxiv url: http://arxiv.org/abs/2304.00989v2
- Date: Fri, 4 Aug 2023 18:15:05 GMT
- ステータス: 処理完了
- システム内更新日: 2023-08-08 23:30:29.708520
- Title: Neuro-Symbolic Execution of Generic Source Code
- Title(参考訳): ジェネリックソースコードのニューロシンボリック実行
- Authors: Yaojie Hu, Jin Tian
- Abstract要約: 我々は、ジェネリックソースコードの実行のための最初のニューラルモデルであるNeural Interpretation (NI)を導入する。
NIは、コンパイラアーキテクチャを持つコンピュータの新しいニューラルモデルであり、ソースコードによって「プログラムされた」ニューラルネットワーク層を組み立てることができる。
- 参考スコア(独自算出の注目度): 6.47243430672461
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Can a Python program be executed statement-by-statement by neural networks
composed according to the source code? We formulate the Neuro-Symbolic
Execution Problem and introduce Neural Interpretation (NI), the first neural
model for the execution of generic source code that allows missing definitions.
NI preserves source code structure, where every variable has a vector encoding,
and every function executes a neural network. NI is a novel neural model of
computers with a compiler architecture that can assemble neural layers
"programmed" by source code. NI is the first neural model capable of executing
Py150 dataset programs, including library functions without concrete inputs,
and it can be trained with flexible code understanding objectives. We
demonstrate white-box execution without concrete inputs for variable misuse
localization and repair.
- Abstract(参考訳): ソースコードに従って構成されたニューラルネットワークによって、Pythonプログラムをステートメントバイステートメントで実行できるか?
我々はニューロシンボリック実行問題を定式化し、定義の欠如を許容する汎用ソースコードの実行のための最初のニューラルモデルであるNeural Interpretation (NI)を導入する。
NIはソースコード構造を保持し、すべての変数がベクターエンコーディングを持ち、すべての関数がニューラルネットワークを実行する。
NIは、コンパイラアーキテクチャを持つコンピュータの新しいニューラルモデルであり、ソースコードによって「プログラムされた」ニューラルネットワーク層を組み立てることができる。
NIは、具体的な入力のないライブラリ関数を含むPy150データセットプログラムを実行することができる最初のニューラルモデルであり、柔軟なコード理解の目的でトレーニングすることができる。
誤用と補修のための具体的入力を使わずにホワイトボックスの実行を実証する。
関連論文リスト
- Verified Neural Compressed Sensing [58.98637799432153]
精度の高い計算タスクのために、初めて(私たちの知識を最大限に活用するために)証明可能なニューラルネットワークを開発します。
極小問題次元(最大50)では、線形および双項線形測定からスパースベクトルを確実に回復するニューラルネットワークを訓練できることを示す。
ネットワークの複雑さは問題の難易度に適応できることを示し、従来の圧縮センシング手法が証明不可能な問題を解く。
論文 参考訳(メタデータ) (2024-05-07T12:20:12Z) - No One-Size-Fits-All Neurons: Task-based Neurons for Artificial Neural Networks [25.30801109401654]
人間の脳はタスクベースのニューロンのユーザなので、人工ネットワークの設計はタスクベースのアーキテクチャ設計からタスクベースのニューロン設計に移行できるだろうか?
本稿では,タスクベースニューロンのプロトタイピングのための2段階のフレームワークを提案する。
実験により、提案されたタスクベースのニューロン設計は実現可能であるだけでなく、他の最先端モデルと競合する性能を提供することが示された。
論文 参考訳(メタデータ) (2024-05-03T09:12:46Z) - Hebbian Learning based Orthogonal Projection for Continual Learning of
Spiking Neural Networks [74.3099028063756]
我々は,側方接続とヘビアン学習に基づくニューラル操作を用いた新しい手法を開発した。
我々は,反復する側方接続におけるヘビアン学習と反ヘビアン学習が,神経活動の主部分空間を効果的に抽出できることを示した。
我々の手法は、ほとんど忘れることなくニューラルネットワークをスパイクするために一貫して解決する。
論文 参考訳(メタデータ) (2024-02-19T09:29:37Z) - Codebook Features: Sparse and Discrete Interpretability for Neural
Networks [43.06828312515959]
ニューラルネットワークが、疎く、離散的で、より解釈可能な隠された状態を持つように訓練できるかどうかを探る。
コードブックの特徴は、各層にベクトル量子化ボトルネックを持つニューラルネットワークを微調整することによって生成される。
ニューラルネットワークは、パフォーマンスをわずかに低下させるだけで、この極端なボトルネックの下で動作できることがわかりました。
論文 参考訳(メタデータ) (2023-10-26T08:28:48Z) - Permutation Equivariant Neural Functionals [92.0667671999604]
この研究は、他のニューラルネットワークの重みや勾配を処理できるニューラルネットワークの設計を研究する。
隠れた層状ニューロンには固有の順序がないため, 深いフィードフォワードネットワークの重みに生じる置換対称性に着目する。
実験の結果, 置換同変ニューラル関数は多種多様なタスクに対して有効であることがわかった。
論文 参考訳(メタデータ) (2023-02-27T18:52:38Z) - Polynomial Neural Fields for Subband Decomposition and Manipulation [78.2401411189246]
我々はニューラルフィールド(PNF)と呼ばれる新しい種類のニューラルフィールドを提案する。
PNFの鍵となる利点は、信号がニューラルネットワークの利点を失うことなく、操作可能なコンポーネントと解釈可能なコンポーネントの合成として表現できることである。
本研究では,Fourier PNFがテクスチャ転送やスケール空間といった信号操作の応用を可能にすることを実証的に示す。
論文 参考訳(メタデータ) (2023-02-09T18:59:04Z) - Neurocoder: Learning General-Purpose Computation Using Stored Neural
Programs [64.56890245622822]
ニューロコーダ(Neurocoder)は、汎用計算機の全く新しいクラスである。
共有可能なモジュール型プログラムのセットから関連するプログラムを構成することで、データ応答性のある方法で“コード”を行う。
モジュールプログラムを学習し、パターンシフトを厳しく処理し、新しいプログラムが学習されると、古いプログラムを記憶する新しい能力を示す。
論文 参考訳(メタデータ) (2020-09-24T01:39:16Z) - Extending Answer Set Programs with Neural Networks [2.512827436728378]
ニューラルネットワークを導入することで、応答セットプログラムをシンプルに拡張するNeurASPを提案する。
我々は、NeurASPがトレーニング済みニューラルネットワークの知覚精度を向上できるだけでなく、論理ルールによる制約を与えることで、ニューラルネットワークをより良くトレーニングできることを示した。
論文 参考訳(メタデータ) (2020-09-22T00:52:30Z) - Non-linear Neurons with Human-like Apical Dendrite Activations [81.18416067005538]
XOR論理関数を100%精度で学習し, 標準的なニューロンに後続のアピーカルデンドライト活性化(ADA)が認められた。
コンピュータビジョン,信号処理,自然言語処理の6つのベンチマークデータセットについて実験を行った。
論文 参考訳(メタデータ) (2020-02-02T21:09:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。