論文の概要: ExAIS: Executable AI Semantics
- arxiv url: http://arxiv.org/abs/2202.09868v1
- Date: Sun, 20 Feb 2022 17:33:34 GMT
- ステータス: 処理完了
- システム内更新日: 2022-02-22 15:49:36.356856
- Title: ExAIS: Executable AI Semantics
- Title(参考訳): ExAIS: 実行可能なAIセマンティックス
- Authors: Richard Schumi, Jun Sun
- Abstract要約: ニューラルネットワークは、プログラマの心の中で(しばしば非公式に)論理的推論を通じて、より複雑なプログラムを構築する代わりに、汎用的なニューラルネットワークモデルをビッグデータで最適化することで、新しいプログラミングパラダイムとみなすことができる。
この新しいパラダイムでは、PyTorchのようなAIフレームワークが重要な役割を果たす。
プログラミング言語(Cなど)の適切な意味論が欠如していること、すなわちコンパイラの正当性仕様が、多くの問題のあるプログラムの動作やセキュリティ問題に寄与していることが知られている。
- 参考スコア(独自算出の注目度): 4.092001692194709
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Neural networks can be regarded as a new programming paradigm, i.e., instead
of building ever-more complex programs through (often informal) logical
reasoning in the programmers' mind, complex 'AI' systems are built by
optimising generic neural network models with big data. In this new paradigm,
AI frameworks such as TensorFlow and PyTorch play a key role, which is as
essential as the compiler for traditional programs. It is known that the lack
of a proper semantics for programming languages (such as C), i.e., a
correctness specification for compilers, has contributed to many problematic
program behaviours and security issues. While it is in general hard to have a
correctness specification for compilers due to the high complexity of
programming languages and their rapid evolution, we have a unique opportunity
to do it right this time for neural networks (which have a limited set of
functions, and most of them have stable semantics). In this work, we report our
effort on providing a correctness specification of neural network frameworks
such as TensorFlow. We specify the semantics of almost all TensorFlow layers in
the logical programming language Prolog. We demonstrate the usefulness of the
semantics through two applications. One is a fuzzing engine for TensorFlow,
which features a strong oracle and a systematic way of generating valid neural
networks. The other is a model validation approach which enables consistent bug
reporting for TensorFlow models.
- Abstract(参考訳): ニューラルネットワークは、プログラマの心の中で(しばしば非公式に)論理的推論を通じて、より複雑なプログラムを構築する代わりに、汎用的なニューラルネットワークモデルをビッグデータで最適化することで、新しいプログラミングパラダイムとみなすことができる。
この新たなパラダイムでは、TensorFlowやPyTorchといったAIフレームワークが重要な役割を果たす。
プログラミング言語(Cなど)の適切な意味論が欠如していること、すなわちコンパイラの正当性仕様が多くの問題となるプログラムの動作やセキュリティ問題に寄与していることが知られている。
一般的に、プログラミング言語の複雑さと急速な進化のためにコンパイラの正当性仕様を持つのは難しいが、ニューラルネットワーク(関数セットが限られており、そのほとんどは安定的なセマンティクスを持っている)に対して、今回はそれを正しく行うユニークな機会がある。
本稿では、tensorflowなどのニューラルネットワークフレームワークの正確性仕様を提供する取り組みについて報告する。
論理プログラミング言語Prologで、ほぼすべてのTensorFlow層のセマンティクスを指定する。
2つの応用を通して意味論の有用性を示す。
1つはtensorflowのファジングエンジンで、強力なオラクルと有効なニューラルネットワークを生成する体系的な方法を備えている。
もう1つは、TensorFlowモデルの一貫性のあるバグレポートを可能にするモデル検証アプローチである。
関連論文リスト
- pyhgf: A neural network library for predictive coding [0.2150989251218736]
texttpyhgfは、予測コーディングのための動的ネットワークの作成、操作、サンプリングのためのPythonパッケージである。
ネットワークコンポーネントを透過的でモジュール的で、拡張可能な変数としてメッセージパッシングステップに囲み込むことで、他のフレームワークよりも改善します。
コア変数の透明性は、自己組織化の原則を活用する推論プロセスにも変換できる。
論文 参考訳(メタデータ) (2024-10-11T19:21:38Z) - KHNNs: hypercomplex neural networks computations via Keras using TensorFlow and PyTorch [0.0]
本稿では,DenseとPyTorch内で計算を行うKerasと統合したライブラリアプリケーションを提案する。
DenseとConvolutional 1D、2D、3Dレイヤアーキテクチャを提供する。
論文 参考訳(メタデータ) (2024-06-29T14:36:37Z) - Improving Complex Reasoning over Knowledge Graph with Logic-Aware Curriculum Tuning [89.89857766491475]
大規模言語モデル(LLM)に基づくKG上の複雑な推論スキーマを提案する。
任意の一階論理クエリを二分木分解により拡張し、LLMの推論能力を刺激する。
広く使われているデータセットに対する実験では、LACTは高度な手法よりも大幅に改善されている(平均+5.5% MRRスコア)。
論文 参考訳(メタデータ) (2024-05-02T18:12:08Z) - Nondeterministic Stacks in Neural Networks [0.456877715768796]
我々は、非決定論的プッシュダウンオートマトンを効率的にシミュレートする微分可能なデータ構造を開発する。
これにより、任意の文脈自由言語に対する形式的認識能力が向上することを示す。
また,非決定論的スタックを付加したRNNでは,驚くほど強力な動作が可能であることを示す。
論文 参考訳(メタデータ) (2023-04-25T16:00:40Z) - A Neural Lambda Calculus: Neurosymbolic AI meets the foundations of
computing and functional programming [0.0]
我々は、プログラム全体の実行方法を学ぶニューラルネットワークの能力を分析する。
統合型ニューラルラーニングと電卓形式化の導入について紹介する。
論文 参考訳(メタデータ) (2023-04-18T20:30:16Z) - PDSketch: Integrated Planning Domain Programming and Learning [86.07442931141637]
我々は PDSketch という新しいドメイン定義言語を提案する。
これにより、ユーザーはトランジションモデルで柔軟にハイレベルな構造を定義できる。
移行モデルの詳細は、トレーニング可能なニューラルネットワークによって満たされる。
論文 参考訳(メタデータ) (2023-03-09T18:54:12Z) - Dynamic Inference with Neural Interpreters [72.90231306252007]
本稿では,モジュールシステムとしての自己アテンションネットワークにおける推論を分解するアーキテクチャであるNeural Interpretersを提案する。
モデルへの入力は、エンドツーエンドの学習方法で一連の関数を通してルーティングされる。
ニューラル・インタープリタは、より少ないパラメータを用いて視覚変換器と同等に動作し、サンプル効率で新しいタスクに転送可能であることを示す。
論文 参考訳(メタデータ) (2021-10-12T23:22:45Z) - Quantized Neural Networks via {-1, +1} Encoding Decomposition and
Acceleration [83.84684675841167]
本稿では,量子化されたニューラルネットワーク(QNN)をマルチブランチバイナリネットワークに分解するために,-1,+1を用いた新しい符号化方式を提案する。
本稿では,大規模画像分類,オブジェクト検出,セマンティックセグメンテーションにおける提案手法の有効性を検証する。
論文 参考訳(メタデータ) (2021-06-18T03:11:15Z) - Learning to Execute Programs with Instruction Pointer Attention Graph
Neural Networks [55.98291376393561]
グラフニューラルネットワーク(GNN)は、ソフトウェアエンジニアリングタスクを学習するための強力なツールとして登場した。
リカレントニューラルネットワーク(RNN)は、長いシーケンシャルな推論の連鎖に適しているが、プログラム構造を自然に組み込んでいるわけではない。
本稿では,新しいGNNアーキテクチャ,IPA-GNN(Instruction Pointer Attention Graph Neural Networks)を導入する。
論文 参考訳(メタデータ) (2020-10-23T19:12:30Z) - Recognizing Long Grammatical Sequences Using Recurrent Networks
Augmented With An External Differentiable Stack [73.48927855855219]
リカレントニューラルネットワーク(RNN)は、シーケンスモデリング、生成、予測に広く使われているディープアーキテクチャである。
RNNは、非常に長いシーケンスに対してあまり一般化せず、多くの重要な時間的処理や時系列予測問題に適用性を制限する。
これらの欠点に対処する方法の1つは、スタックのような外部の異なるメモリ構造とRNNを結合することである。
本稿では,重要なアーキテクチャと状態更新機構を備えたメモリ拡張RNNを改良する。
論文 参考訳(メタデータ) (2020-04-04T14:19:15Z) - TF-Coder: Program Synthesis for Tensor Manipulations [29.46838583290554]
本稿では,プルーニングを例に,TF-Coderというプログラミングツールを提案する。
入力と出力のテンソルの特徴とタスクの自然言語記述から操作を予測するためにモデルを訓練する。
TF-Coderは、実世界のタスクのうち63を5分以内に解決する。
論文 参考訳(メタデータ) (2020-03-19T22:53:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。