論文の概要: Learning Structured Declarative Rule Sets -- A Challenge for Deep
Discrete Learning
- arxiv url: http://arxiv.org/abs/2012.04377v1
- Date: Tue, 8 Dec 2020 11:43:16 GMT
- ステータス: 処理完了
- システム内更新日: 2021-05-16 21:04:27.523065
- Title: Learning Structured Declarative Rule Sets -- A Challenge for Deep
Discrete Learning
- Title(参考訳): 構造化宣言規則集合の学習-深層離散学習への挑戦
- Authors: Johannes F\"urnkranz, Eyke H\"ullermeier, Eneldo Loza Menc\'ia,
Michael Rapp
- Abstract要約: 帰納的ルール学習では、入力を組み合わせて新しい補助概念を学び、その後のルールによって入力として使用できる。
しかし、そのような能力を持つルール学習アルゴリズムの研究はまだ初期段階にあり、この分野における大きな進歩の鍵となる障害の1つである。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Arguably the key reason for the success of deep neural networks is their
ability to autonomously form non-linear combinations of the input features,
which can be used in subsequent layers of the network. The analogon to this
capability in inductive rule learning is to learn a structured rule base, where
the inputs are combined to learn new auxiliary concepts, which can then be used
as inputs by subsequent rules. Yet, research on rule learning algorithms that
have such capabilities is still in their infancy, which is - we would argue -
one of the key impediments to substantial progress in this field. In this
position paper, we want to draw attention to this unsolved problem, with a
particular focus on previous work in predicate invention and multi-label rule
learning
- Abstract(参考訳): おそらく、ディープニューラルネットワークが成功した主な理由は、入力機能の非線形組み合わせを自律的に形成できる能力である。
帰納的規則学習におけるこの能力の類似は、構造化された規則ベースを学習し、入力を結合して新しい補助概念を学習し、その後の規則によって入力として使用することができる。
しかし、そのような能力を持つルール学習アルゴリズムの研究は、まだ初期段階にある。
本稿では、この未解決問題に注目し、特に先進的な発明の述語化と多ラベルルール学習に焦点をあてる。
関連論文リスト
- Learning Rules Explaining Interactive Theorem Proving Tactic Prediction [5.229806149125529]
この問題を帰納論理プログラミング(ILP)タスクとして表現する。
ILP表現を使用することで、追加で計算コストの高いプロパティをエンコードすることで、機能空間を豊かにしました。
我々は、このリッチな特徴空間を用いて、与えられた証明状態に戦術がいつ適用されたかを説明する規則を学ぶ。
論文 参考訳(メタデータ) (2024-11-02T09:18:33Z) - A Unified Framework for Neural Computation and Learning Over Time [56.44910327178975]
Hamiltonian Learningはニューラルネットワークを"時間とともに"学習するための新しい統合フレームワーク
i)外部ソフトウェアソルバを必要とせずに統合できる、(ii)フィードフォワードおよびリカレントネットワークにおける勾配に基づく学習の概念を一般化する、(iii)新しい視点で開放する、という微分方程式に基づいている。
論文 参考訳(メタデータ) (2024-09-18T14:57:13Z) - Computability of Classification and Deep Learning: From Theoretical Limits to Practical Feasibility through Quantization [53.15874572081944]
ディープラーニングフレームワークにおける計算可能性について,2つの観点から検討する。
根底にある問題が十分に解決された場合でも、ディープニューラルネットワークを訓練する際のアルゴリズム上の制限を示す。
最後に、分類と深層ネットワークトレーニングの定量化バージョンにおいて、計算可能性の制限は発生せず、一定の程度まで克服可能であることを示す。
論文 参考訳(メタデータ) (2024-08-12T15:02:26Z) - Reasoning Algorithmically in Graph Neural Networks [1.8130068086063336]
ニューラルネットワークの適応学習能力にアルゴリズムの構造的および規則に基づく推論を統合することを目的としている。
この論文は、この領域の研究に理論的および実践的な貢献を提供する。
論文 参考訳(メタデータ) (2024-02-21T12:16:51Z) - Hierarchically Structured Task-Agnostic Continual Learning [0.0]
本研究では,連続学習のタスク非依存的な視点を取り入れ,階層的情報理論の最適性原理を考案する。
我々は,情報処理経路の集合を作成することで,忘れを緩和する,Mixture-of-Variational-Experts層と呼ばれるニューラルネットワーク層を提案する。
既存の連続学習アルゴリズムのようにタスク固有の知識を必要としない。
論文 参考訳(メタデータ) (2022-11-14T19:53:15Z) - Knowledge Enhanced Neural Networks for relational domains [83.9217787335878]
我々は、ニューラルネットワークに事前論理的知識を注入するニューラルネットワークアーキテクチャであるKENNに焦点を当てる。
本稿では,関係データに対するKENNの拡張を提案する。
論文 参考訳(メタデータ) (2022-05-31T13:00:34Z) - Towards fuzzification of adaptation rules in self-adaptive architectures [2.730650695194413]
我々は、自己適応型アーキテクチャにおける分析と計画段階にニューラルネットワークを活用することに注力する。
このようなニーズに対処する簡単な選択肢のひとつは、論理ルールに基づいた推論をニューラルネットワークに置き換えることだ。
この連続体の中でナビゲートする方法を示し、元の論理ルールを自然に埋め込むニューラルネットワークアーキテクチャを作成します。
論文 参考訳(メタデータ) (2021-12-17T12:17:16Z) - An Empirical Investigation into Deep and Shallow Rule Learning [0.0]
本稿では,深層ルール学習と浅層ルール学習を一様一般アルゴリズムで実証的に比較する。
人工および実世界のベンチマークデータを用いた実験は、深いルールネットワークが浅いネットワークより優れていることを示している。
論文 参考訳(メタデータ) (2021-06-18T17:43:17Z) - Reinforcement Learning with External Knowledge by using Logical Neural
Networks [67.46162586940905]
論理ニューラルネットワーク(LNN)と呼ばれる最近のニューラルシンボリックフレームワークは、ニューラルネットワークとシンボリックロジックの両方のキープロパティを同時に提供することができる。
外部知識ソースからのモデルフリー強化学習を可能にする統合手法を提案する。
論文 参考訳(メタデータ) (2021-03-03T12:34:59Z) - Developing Constrained Neural Units Over Time [81.19349325749037]
本稿では,既存のアプローチと異なるニューラルネットワークの定義方法に焦点をあてる。
ニューラルネットワークの構造は、データとの相互作用にも拡張される制約の特別なクラスによって定義される。
提案した理論は時間領域にキャストされ, データを順序づけられた方法でネットワークに提示する。
論文 参考訳(メタデータ) (2020-09-01T09:07:25Z) - Learning Connectivity of Neural Networks from a Topological Perspective [80.35103711638548]
本稿では,ネットワークを解析のための完全なグラフに表現するためのトポロジ的視点を提案する。
接続の規模を反映したエッジに学習可能なパラメータを割り当てることにより、学習プロセスを異なる方法で行うことができる。
この学習プロセスは既存のネットワークと互換性があり、より大きな検索空間と異なるタスクへの適応性を持っている。
論文 参考訳(メタデータ) (2020-08-19T04:53:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。