論文の概要: Differentiable Logic Machines
- arxiv url: http://arxiv.org/abs/2102.11529v5
- Date: Wed, 5 Jul 2023 22:00:05 GMT
- ステータス: 処理完了
- システム内更新日: 2023-07-07 18:58:28.419026
- Title: Differentiable Logic Machines
- Title(参考訳): 微分可能な論理機械
- Authors: Matthieu Zimmer and Xuening Feng and Claire Glanois and Zhaohui Jiang
and Jianyi Zhang and Paul Weng and Dong Li and Jianye Hao and Wulong Liu
- Abstract要約: 微分可能論理マシン(DLM)と呼ばれる新しいニューラル論理アーキテクチャを提案する。
DLMは帰納論理プログラミング(ILP)と強化学習(RL)の両方の問題を解くことができる。
解釈可能な解を必要としないRL問題では、DLMは他の解釈不可能なニューラル論理的RLアプローチよりも優れている。
- 参考スコア(独自算出の注目度): 38.21461039738474
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The integration of reasoning, learning, and decision-making is key to build
more general artificial intelligence systems. As a step in this direction, we
propose a novel neural-logic architecture, called differentiable logic machine
(DLM), that can solve both inductive logic programming (ILP) and reinforcement
learning (RL) problems, where the solution can be interpreted as a first-order
logic program. Our proposition includes several innovations. Firstly, our
architecture defines a restricted but expressive continuous relaxation of the
space of first-order logic programs by assigning weights to predicates instead
of rules, in contrast to most previous neural-logic approaches. Secondly, with
this differentiable architecture, we propose several (supervised and RL)
training procedures, based on gradient descent, which can recover a
fully-interpretable solution (i.e., logic formula). Thirdly, to accelerate RL
training, we also design a novel critic architecture that enables actor-critic
algorithms. Fourthly, to solve hard problems, we propose an incremental
training procedure that can learn a logic program progressively. Compared to
state-of-the-art (SOTA) differentiable ILP methods, DLM successfully solves all
the considered ILP problems with a higher percentage of successful seeds (up to
3.5$\times$). On RL problems, without requiring an interpretable solution, DLM
outperforms other non-interpretable neural-logic RL approaches in terms of
rewards (up to 3.9%). When enforcing interpretability, DLM can solve harder RL
problems (e.g., Sorting, Path) Moreover, we show that deep logic programs can
be learned via incremental supervised training. In addition to this excellent
performance, DLM can scale well in terms of memory and computational time,
especially during the testing phase where it can deal with much more constants
($>$2$\times$) than SOTA.
- Abstract(参考訳): 推論、学習、意思決定の統合は、より一般的な人工知能システムを構築する上で鍵となる。
この方向の一歩として,インダクティブ・ロジック・プログラミング (ilp) と強化学習 (rl) の問題を解決し,その解を一階述語論理プログラムとして解釈できる,微分可能論理機械 (dlm) と呼ばれる新しいニューラル・ロジック・アーキテクチャを提案する。
私たちの提案にはいくつかのイノベーションが含まれている。
第一に、我々のアーキテクチャは、ルールの代わりに述語に重みを割り当てることで、一階論理プログラムの空間を制限されるが表現力に富んだ連続緩和を定義する。
第二に、この微分可能なアーキテクチャを用いて、完全に解釈可能な解(すなわち論理式)を復元できる勾配降下に基づく複数の(教師付きおよびRL)訓練手順を提案する。
第3に、RLトレーニングを加速するために、アクター批判アルゴリズムを実現する新しい批評家アーキテクチャを設計する。
第4に,難解な問題を解くために,論理プログラムを段階的に学習できるインクリメンタルな学習手順を提案する。
最先端(SOTA)微分可能なILP法と比較して、DLMは高い成功率の種子(3.5$\times$)で検討された全てのILP問題の解決に成功した。
RL問題では、解釈可能な解を必要とすることなく、DLMは報酬(最大3.9%)で他の非解釈可能な神経論理的RLアプローチより優れている。
DLMは、解釈可能性を実現する際に、より難しいRL問題(例えば、ソーティング、パス)を解くことができる。
この優れたパフォーマンスに加えて、DLMは、特にSOTAよりもはるかに多くの定数($2$\times$)を扱うテストフェーズにおいて、メモリと計算時間の観点からうまくスケールすることができる。
関連論文リスト
- Guided Evolution with Binary Discriminators for ML Program Search [64.44893463120584]
プログラムのペアがどのプログラムの方が優れているかを識別するために、オンラインで訓練された二項判別器による指導進化を提案する。
本稿では,MLの記号探索における3.7倍の高速化,RL損失関数の4倍の高速化など,様々な問題に対する進化の高速化を実証する。
論文 参考訳(メタデータ) (2024-02-08T16:59:24Z) - Assessing Logical Reasoning Capabilities of Encoder-Only Transformer
Models [0.13980986259786224]
本稿では,エンコーダのみのトランスフォーマー言語モデル (LM) が論理規則に従ってどの程度理にかなっているかを検討する。
様々なデータセットの論理的妥当性を決定するために,エンコーダのみのLMを適度に訓練できることを示す。
これらのデータセット上で微調整されたモデルをクロスプロブすることで、LMはそれらの仮定的論理的推論能力の伝達が困難であることを示す。
論文 参考訳(メタデータ) (2023-12-18T21:42:34Z) - Language Models can be Logical Solvers [99.40649402395725]
論理解法の推論過程を直接エミュレートする新しい言語モデルであるLoGiPTを導入する。
LoGiPTは、導出的ソルバの見えない推論過程を明らかにして精錬することから導かれる、新しく構築された命令チューニングデータセットに基づいて微調整される。
論文 参考訳(メタデータ) (2023-11-10T16:23:50Z) - Towards LogiGLUE: A Brief Survey and A Benchmark for Analyzing Logical
Reasoning Capabilities of Language Models [58.76688462256284]
大規模言語モデル(LLM)は、形式的知識表現(KR)システムの様々な制限を克服する能力を示した。
一つのタスクトレーニング,複数タスクトレーニング,および思考知識の蒸留微調整手法の連鎖について検討し,異なる論理的推論カテゴリにおけるモデルの性能を評価する。
論文 参考訳(メタデータ) (2023-10-02T01:00:50Z) - Towards Invertible Semantic-Preserving Embeddings of Logical Formulae [1.0152838128195467]
論理的要件とルールの学習と最適化は、人工知能において常に重要な問題である。
現在のメソッドは、カーネルメソッドを介して効果的なセマンティック保存の埋め込みを構築することができるが、それらが定義するマップは可逆ではない。
本稿では,グラフ変分オートエンコーダフレームワークに基づく深層アーキテクチャを応用した埋め込みの逆変換法について述べる。
論文 参考訳(メタデータ) (2023-05-03T10:49:01Z) - AISYN: AI-driven Reinforcement Learning-Based Logic Synthesis Framework [0.8356765961526955]
我々は人工知能(AI)と強化学習(RL)アルゴリズムがこの問題の解決に役立つと考えている。
オープンソースのベンチマーク回路と産業用ベンチマーク回路を併用した実験により,論理合成最適化関数をAI駆動にすることで,面積,遅延,電力といった重要な指標を大幅に改善できることが判明した。
論文 参考訳(メタデータ) (2023-02-08T00:55:24Z) - Learning to Optimize for Reinforcement Learning [79.03249959636776]
ゼロから強化学習を行うエージェントを学習することは可能であることを示す。
おもちゃのタスクでしか訓練されないが、我々の学習はブラックスの複雑なタスクに一般化することができる。
論文 参考訳(メタデータ) (2023-02-03T00:11:02Z) - End-to-end Algorithm Synthesis with Recurrent Networks: Logical
Extrapolation Without Overthinking [52.05847268235338]
機械学習システムが問題を過度に考えずに論理的外挿を行う方法を示す。
本稿では,問題インスタンスの明示的なコピーをメモリに保持して,それを忘れないようにするリコールアーキテクチャを提案する。
また、モデルが数に固有の行動を学ぶのを防ぎ、無期限に繰り返される行動を学ぶためにモデルをプッシュするプログレッシブトレーニングルーチンも採用しています。
論文 参考訳(メタデータ) (2022-02-11T18:43:28Z) - Constraint Sampling Reinforcement Learning: Incorporating Expertise For
Faster Learning [43.562783189118]
本稿では,人間の洞察を高速学習に組み込むための実践的アルゴリズムを提案する。
我々のアルゴリズムであるConstraint Sampling Reinforcement Learning (CSRL)は、事前のドメイン知識をRLポリシーの制約/制約として組み込む。
すべてのケースにおいて、CSRLはベースラインよりも早く良いポリシーを学ぶ。
論文 参考訳(メタデータ) (2021-12-30T22:02:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。