論文の概要: Closed Loop Neural-Symbolic Learning via Integrating Neural Perception,
Grammar Parsing, and Symbolic Reasoning
- arxiv url: http://arxiv.org/abs/2006.06649v2
- Date: Mon, 27 Jul 2020 22:17:10 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-22 09:10:36.819172
- Title: Closed Loop Neural-Symbolic Learning via Integrating Neural Perception,
Grammar Parsing, and Symbolic Reasoning
- Title(参考訳): ニューラル知覚・文法解析・シンボリック推論の統合による閉ループ型ニューラルシンボリック学習
- Authors: Qing Li, Siyuan Huang, Yining Hong, Yixin Chen, Ying Nian Wu,
Song-Chun Zhu
- Abstract要約: 従来の手法は強化学習アプローチを用いてニューラルシンボリックモデルを学ぶ。
我々は,脳神経知覚と記号的推論を橋渡しする前に,textbfgrammarモデルをテキストシンボリックとして導入する。
本稿では,トップダウンのヒューマンライクな学習手順を模倣して誤りを伝播する新しいtextbfback-searchアルゴリズムを提案する。
- 参考スコア(独自算出の注目度): 134.77207192945053
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The goal of neural-symbolic computation is to integrate the connectionist and
symbolist paradigms. Prior methods learn the neural-symbolic models using
reinforcement learning (RL) approaches, which ignore the error propagation in
the symbolic reasoning module and thus converge slowly with sparse rewards. In
this paper, we address these issues and close the loop of neural-symbolic
learning by (1) introducing the \textbf{grammar} model as a \textit{symbolic
prior} to bridge neural perception and symbolic reasoning, and (2) proposing a
novel \textbf{back-search} algorithm which mimics the top-down human-like
learning procedure to propagate the error through the symbolic reasoning module
efficiently. We further interpret the proposed learning framework as maximum
likelihood estimation using Markov chain Monte Carlo sampling and the
back-search algorithm as a Metropolis-Hastings sampler. The experiments are
conducted on two weakly-supervised neural-symbolic tasks: (1) handwritten
formula recognition on the newly introduced HWF dataset; (2) visual question
answering on the CLEVR dataset. The results show that our approach
significantly outperforms the RL methods in terms of performance, converging
speed, and data efficiency. Our code and data are released at
\url{https://liqing-ustc.github.io/NGS}.
- Abstract(参考訳): ニューラルシンボリック計算の目標は、コネクショニストとシンボル主義のパラダイムを統合することである。
従来の方法は強化学習(RL)アプローチを用いてニューラルシンボリックモデルを学習し、シンボリック推論モジュールのエラー伝播を無視し、スパース報酬でゆっくりと収束する。
本稿では,これらの問題に対処し,(1) ニューラルネットワークの知覚と記号的推論を橋渡しするために, \textbf{grammar} モデルを \textit{symbolic prior} として導入し,(2) 記号的推論モジュールを通じてエラーを効率的に伝播する,トップダウンの人間のような学習手順を模倣した新しい \textbf{back-search} アルゴリズムを提案する。
さらに,提案手法を,マルコフ連鎖モンテカルロサンプリングとバックサーチアルゴリズムをメトロポリス・ハスティングス・サンプラーとして,最大確率推定として解釈する。
実験は,(1)新たに導入されたHWFデータセット上での手書き公式認識,(2)CLEVRデータセット上での視覚的質問応答の2つの弱教師付きニューラルシンボリックなタスクで実施された。
その結果,本手法は性能,収束速度,データ効率においてrl法を大きく上回っていることがわかった。
我々のコードとデータは \url{https://liqing-ustc.github.io/NGS} でリリースされます。
関連論文リスト
- Learning a Neural Association Network for Self-supervised Multi-Object Tracking [34.07776597698471]
本稿では,多目的追跡のためのデータアソシエーションを自己管理的に学習するための新しいフレームワークを提案する。
実世界のシナリオでは、オブジェクトの動きが通常マルコフプロセスで表現できるという事実により、我々は、トラッキングのための検出を関連付けるためにニューラルネットワークをトレーニングする新しい期待(EM)アルゴリズムを提案する。
我々は,挑戦的なMOT17とMOT20データセットに対するアプローチを評価し,自己教師付きトラッカーと比較して最先端の結果を得る。
論文 参考訳(メタデータ) (2024-11-18T12:22:29Z) - The Role of Foundation Models in Neuro-Symbolic Learning and Reasoning [54.56905063752427]
Neuro-Symbolic AI(NeSy)は、AIシステムの安全なデプロイを保証することを約束している。
ニューラルネットワークとシンボリックコンポーネントを順次トレーニングする既存のパイプラインは、広範なラベリングを必要とする。
新しいアーキテクチャであるNeSyGPTは、生データから象徴的特徴を抽出する視覚言語基盤モデルを微調整する。
論文 参考訳(メタデータ) (2024-02-02T20:33:14Z) - NeuralFastLAS: Fast Logic-Based Learning from Raw Data [54.938128496934695]
シンボリック・ルール学習者は解釈可能な解を生成するが、入力を記号的に符号化する必要がある。
ニューロシンボリックアプローチは、ニューラルネットワークを使用して生データを潜在シンボリック概念にマッピングすることで、この問題を克服する。
我々は,ニューラルネットワークを記号学習者と共同でトレーニングする,スケーラブルで高速なエンドツーエンドアプローチであるNeuralFastLASを紹介する。
論文 参考訳(メタデータ) (2023-10-08T12:33:42Z) - Deep Generative Symbolic Regression with Monte-Carlo-Tree-Search [29.392036559507755]
記号回帰は数値データから記号表現を学習する問題である。
手続き的に生成した合成データセットに基づいてトレーニングされたディープニューラルモデルは、競合性能を示した。
そこで本研究では,モンテカルロ木探索手法に基づいて,両世界の長所を提供する新しい手法を提案する。
論文 参考訳(メタデータ) (2023-02-22T09:10:20Z) - Joint Edge-Model Sparse Learning is Provably Efficient for Graph Neural
Networks [89.28881869440433]
本稿では,グラフニューラルネットワーク(GNN)における結合エッジモデルスパース学習の理論的特徴について述べる。
解析学的には、重要なノードをサンプリングし、最小のマグニチュードでプルーニングニューロンをサンプリングすることで、サンプルの複雑さを減らし、テスト精度を損なうことなく収束を改善することができる。
論文 参考訳(メタデータ) (2023-02-06T16:54:20Z) - Learning Signal Temporal Logic through Neural Network for Interpretable
Classification [13.829082181692872]
本稿では時系列行動の分類のための説明可能なニューラルネットワーク・シンボリック・フレームワークを提案する。
提案手法の計算効率, コンパクト性, 解釈可能性について, シナリオの駆動と海軍の監視事例研究を通じて実証する。
論文 参考訳(メタデータ) (2022-10-04T21:11:54Z) - Neuro-Symbolic Learning of Answer Set Programs from Raw Data [54.56905063752427]
Neuro-Symbolic AIは、シンボリックテクニックの解釈可能性と、生データから学ぶ深層学習の能力を組み合わせることを目的としている。
本稿では,ニューラルネットワークを用いて生データから潜在概念を抽出するNSIL(Neuro-Symbolic Inductive Learner)を提案する。
NSILは表現力のある知識を学習し、計算的に複雑な問題を解き、精度とデータ効率の観点から最先端のパフォーマンスを達成する。
論文 参考訳(メタデータ) (2022-05-25T12:41:59Z) - Adaptive Convolutional Dictionary Network for CT Metal Artifact
Reduction [62.691996239590125]
本稿では,金属人工物削減のための適応畳み込み辞書ネットワーク(ACDNet)を提案する。
我々のACDNetは、トレーニングデータを介して、アーティファクトフリーCT画像の事前を自動で学習し、入力されたCT画像ごとに表現カーネルを適応的に調整することができる。
本手法は,モデルに基づく手法の明確な解釈可能性を継承し,学習に基づく手法の強力な表現能力を維持する。
論文 参考訳(メタデータ) (2022-05-16T06:49:36Z) - Learning with Holographic Reduced Representations [28.462635977110413]
Holographic Reduced Representations (HRR)は、実数値ベクトル上でシンボリックAIを実行する方法である。
本稿では,ハイブリッド型ニューラルシンボリック・アプローチが学習に有効かどうかを理解するために,このアプローチを再考する。
論文 参考訳(メタデータ) (2021-09-05T19:37:34Z) - Neural Unsupervised Semantic Role Labeling [48.69930912510414]
セマンティックロールラベリングのための最初の神経教師なしモデルを提案する。
タスクを2つの引数関連サブタスク、識別とクラスタリングとして分解する。
CoNLL-2009英語データセットの実験では、我々のモデルは過去の最先端のベースラインよりも優れていた。
論文 参考訳(メタデータ) (2021-04-19T04:50:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。