論文の概要: Neural-Symbolic Integration: A Compositional Perspective
- arxiv url: http://arxiv.org/abs/2010.11926v1
- Date: Thu, 22 Oct 2020 17:55:44 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-04 05:20:37.432786
- Title: Neural-Symbolic Integration: A Compositional Perspective
- Title(参考訳): ニューラル・シンボリック統合 : 構成的視点
- Authors: Efthymia Tsamoura, Loizos Michael
- Abstract要約: ニューラルシステムとシンボリックシステムをどのように両立させるかという問題は未解決のままである。
私たちの研究は、この2つのシステムをブラックボックスとして扱い、モジュールとして単一のアーキテクチャに統合することで、このギャップを埋めようとしている。
シンボリックモジュールがニューラルモジュールとクリーンに統合できることを示し、後者の効率的なトレーニングを促進することができる。
- 参考スコア(独自算出の注目度): 8.566457170664926
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Despite significant progress in the development of neural-symbolic
frameworks, the question of how to integrate a neural and a symbolic system in
a \emph{compositional} manner remains open. Our work seeks to fill this gap by
treating these two systems as black boxes to be integrated as modules into a
single architecture, without making assumptions on their internal structure and
semantics. Instead, we expect only that each module exposes certain methods for
accessing the functions that the module implements: the symbolic module exposes
a deduction method for computing the function's output on a given input, and an
abduction method for computing the function's inputs for a given output; the
neural module exposes a deduction method for computing the function's output on
a given input, and an induction method for updating the function given
input-output training instances. We are, then, able to show that a symbolic
module -- with any choice for syntax and semantics, as long as the deduction
and abduction methods are exposed -- can be cleanly integrated with a neural
module, and facilitate the latter's efficient training, achieving empirical
performance that exceeds that of previous work.
- Abstract(参考訳): ニューラルシンボリックフレームワークの開発はかなり進展したものの、ニューラルシンボリックシステムとシンボリックシステムをいかに統合するかという問題は未解決のままである。
我々の研究は、これらの2つのシステムをブラックボックスとして扱い、内部構造や意味論を仮定することなく単一のアーキテクチャにモジュールとして統合することで、このギャップを埋めようとしている。
代わりに、各モジュールがモジュールが実装する関数にアクセスするための特定のメソッドを公開することだけを期待する: シンボリックモジュールは、与えられた入力で関数の出力を計算する推論メソッドと、与えられた出力に対する関数の入力を計算するアブダクションメソッドと、ニューラルネットワークは、与えられた入力で関数の出力を計算する推論メソッドと、与えられた入力出力のトレーニングインスタンスを更新するための誘導メソッドを公開する。
そして、私たちは、シンボリックモジュール -- 構文とセマンティクスの選択は、推論とアブダクションメソッドが露出している限り -- が神経モジュールときれいに統合できることを示すことができ、後者の効率的なトレーニングを促進し、以前の作業よりも優れた経験的パフォーマンスを達成することができます。
関連論文リスト
- Semialgebraic Neural Networks: From roots to representations [6.259381563339797]
本稿では,任意の有界半代数関数を表現可能なニューラルネットワークアーキテクチャであるSemialgebraic Networks(SANN)を紹介する。
構築により,SANNアーキテクチャがこの継続法を実行可能であることを示し,学習された半代数関数を評価する。
これらのネットワークの例を示し、従来のディープラーニング技術でトレーニングできることを示します。
論文 参考訳(メタデータ) (2025-01-02T22:52:07Z) - A Computational Model of Learning and Memory Using Structurally Dynamic Cellular Automata [0.0]
そこで本研究では,生物工学的手法に基づく学習と記憶の数学的・計算モデルを提案する。
実験結果から,1回のトレーニング実行後に報酬状態を再発見するために,モデルが最適に近い選択をすることができることがわかった。
論文 参考訳(メタデータ) (2024-12-20T17:26:17Z) - A Resolution Independent Neural Operator [0.0]
任意のセンサ位置とカウントを持つ入力出力データから演算子を学習するための一般的なフレームワークを提案する。
暗黙的ニューラル表現としてパラメータ化された連続基底関数を適応的に学習する2つの辞書学習アルゴリズムを提案する。
これらの基底関数は入力関数データを有限次元の埋め込み空間に投影し、アーキテクチャ上の変更なしにDeepONetと互換性を持つ。
論文 参考訳(メタデータ) (2024-07-17T21:03:21Z) - FIND: A Function Description Benchmark for Evaluating Interpretability
Methods [86.80718559904854]
本稿では,自動解釈可能性評価のためのベンチマークスイートであるFIND(Function Interpretation and Description)を紹介する。
FINDには、トレーニングされたニューラルネットワークのコンポーネントに似た機能と、私たちが生成しようとしている種類の記述が含まれています。
本研究では、事前訓練された言語モデルを用いて、自然言語とコードにおける関数の振る舞いの記述を生成する手法を評価する。
論文 参考訳(メタデータ) (2023-09-07T17:47:26Z) - A Recursive Bateson-Inspired Model for the Generation of Semantic Formal
Concepts from Spatial Sensory Data [77.34726150561087]
本稿では,複雑な感覚データから階層構造を生成するための記号のみの手法を提案する。
このアプローチは、概念や概念の創始の鍵としてのバテソンの差異の概念に基づいている。
このモデルは、トレーニングなしでかなりリッチだが人間に読まれる概念表現を生成することができる。
論文 参考訳(メタデータ) (2023-07-16T15:59:13Z) - A Recursively Recurrent Neural Network (R2N2) Architecture for Learning
Iterative Algorithms [64.3064050603721]
本研究では,リカレントニューラルネットワーク (R2N2) にランゲ・クッタニューラルネットワークを一般化し,リカレントニューラルネットワークを最適化した反復アルゴリズムの設計を行う。
本稿では, 線形方程式系に対するクリロフ解法, 非線形方程式系に対するニュートン・クリロフ解法, 常微分方程式に対するルンゲ・クッタ解法と類似の繰り返しを計算問題クラスの入力・出力データに対して提案した超構造内における重みパラメータの正規化について述べる。
論文 参考訳(メタデータ) (2022-11-22T16:30:33Z) - Neural Estimation of Submodular Functions with Applications to
Differentiable Subset Selection [50.14730810124592]
サブモジュール関数と変種は、多様性とカバレッジを特徴付ける能力を通じて、データ選択と要約のための重要なツールとして登場した。
本稿では,モノトーンおよび非モノトーン部分モジュラー関数のためのフレキシブルニューラルネットワークであるFLEXSUBNETを提案する。
論文 参考訳(メタデータ) (2022-10-20T06:00:45Z) - Dynamic Inference with Neural Interpreters [72.90231306252007]
本稿では,モジュールシステムとしての自己アテンションネットワークにおける推論を分解するアーキテクチャであるNeural Interpretersを提案する。
モデルへの入力は、エンドツーエンドの学習方法で一連の関数を通してルーティングされる。
ニューラル・インタープリタは、より少ないパラメータを用いて視覚変換器と同等に動作し、サンプル効率で新しいタスクに転送可能であることを示す。
論文 参考訳(メタデータ) (2021-10-12T23:22:45Z) - Neural Function Modules with Sparse Arguments: A Dynamic Approach to
Integrating Information across Layers [84.57980167400513]
Neural Function Modules (NFM)は、ディープラーニングに同じ構造機能を導入することを目的としている。
トップダウンとボトムアップのフィードバックを組み合わせたフィードフォワードネットワークのコンテキストにおける作業のほとんどは、分類の問題に限られている。
私たちの仕事の重要な貢献は、フレキシブルなアルゴリズムで注意、疎結合、トップダウン、ボトムアップのフィードバックを組み合わせることです。
論文 参考訳(メタデータ) (2020-10-15T20:43:17Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。