論文の概要: Incorporating Expert Rules into Neural Networks in the Framework of
Concept-Based Learning
- arxiv url: http://arxiv.org/abs/2402.14726v1
- Date: Thu, 22 Feb 2024 17:33:49 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-23 14:27:43.303560
- Title: Incorporating Expert Rules into Neural Networks in the Framework of
Concept-Based Learning
- Title(参考訳): 概念ベース学習の枠組みにおけるニューラルネットワークへのエキスパートルールの導入
- Authors: Andrei V. Konstantinov and Lev V. Utkin
- Abstract要約: 論理規則とニューラルネットワークを組み合わせて概念の確率を予測する方法が提案されている。
提案する課題の解決とニューラルネットワークのトレーニングに,いくつかのアプローチを提案する。
提案されたアルゴリズムのコードは公開されている。
- 参考スコア(独自算出の注目度): 2.9370710299422598
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: A problem of incorporating the expert rules into machine learning models for
extending the concept-based learning is formulated in the paper. It is proposed
how to combine logical rules and neural networks predicting the concept
probabilities. The first idea behind the combination is to form constraints for
a joint probability distribution over all combinations of concept values to
satisfy the expert rules. The second idea is to represent a feasible set of
probability distributions in the form of a convex polytope and to use its
vertices or faces. We provide several approaches for solving the stated problem
and for training neural networks which guarantee that the output probabilities
of concepts would not violate the expert rules. The solution of the problem can
be viewed as a way for combining the inductive and deductive learning. Expert
rules are used in a broader sense when any logical function that connects
concepts and class labels or just concepts with each other can be regarded as a
rule. This feature significantly expands the class of the proposed results.
Numerical examples illustrate the approaches. The code of proposed algorithms
is publicly available.
- Abstract(参考訳): 本論文では、概念ベースの学習を拡張するための機械学習モデルにエキスパートルールを組み込む問題を定式化する。
論理規則とニューラルネットワークを組み合わせることにより,概念の確率を予測する手法を提案する。
この組み合わせの背景にある最初のアイデアは、専門家の規則を満たすために概念値のすべての組み合わせに対する合同確率分布の制約を形成することである。
第二の考えは、凸ポリトープの形で確率分布の可能な集合を表現し、その頂点または面を使用することである。
提案手法は,概念の出力確率がエキスパートルールに違反しないことを保証するニューラルネットワークの学習と解くためのいくつかのアプローチを提供する。
この問題の解は、帰納的学習と帰納的学習を結合する方法と見なすことができる。
専門家のルールは、概念とクラスラベルをつなぐ論理関数や単に概念を互いに結びつける論理関数がルールと見なされる場合、より広い意味で使用される。
この機能は提案した結果のクラスを大幅に拡張する。
数値的な例はアプローチを説明する。
提案するアルゴリズムのコードも公開されている。
関連論文リスト
- LinSATNet: The Positive Linear Satisfiability Neural Networks [116.65291739666303]
本稿では,ニューラルネットワークに人気の高い正の線形満足度を導入する方法について検討する。
本稿では,古典的なシンクホーンアルゴリズムを拡張し,複数の辺分布の集合を共同で符号化する,最初の微分可能満足層を提案する。
論文 参考訳(メタデータ) (2024-07-18T22:05:21Z) - FI-CBL: A Probabilistic Method for Concept-Based Learning with Expert Rules [2.2120851074630177]
このメソッドの背後にある主なアイデアは、各概念に注釈付けされたイメージをパッチに分割し、オートエンコーダを使用してパッチを埋め込みに変換し、埋め込みをクラスタ化することである。
新しいイメージの概念を見つけるために,概念の事前確率と後続確率の計算による頻繁な推論を実装した。
数値実験により、FI-CBLは、トレーニングデータの数が小さい場合において、概念ボトルネックモデルより優れていることが示された。
論文 参考訳(メタデータ) (2024-06-28T13:05:17Z) - Deep Concept Removal [29.65899467379793]
ディープニューラルネットワークにおける概念除去の問題に対処する。
本稿では,概念データセットに基づいて学習した逆線形分類器に基づく新しい手法を提案する。
また,逆行訓練に伴う課題に対処するために,暗黙の勾配に基づく手法を導入する。
論文 参考訳(メタデータ) (2023-10-09T14:31:03Z) - Abstracting Concept-Changing Rules for Solving Raven's Progressive
Matrix Problems [54.26307134687171]
Raven's Progressive Matrix (RPM) は、候補者の中から選択することで、機械知能においてそのような能力を実現する古典的なテストである。
近年の研究では、RPMの解法はルールの深い理解を促進することが示唆されている。
本稿では、解釈可能な概念を学習し、潜在空間における概念変更ルールを解析することにより、概念変更ルールABstraction(CRAB)の潜時変数モデルを提案する。
論文 参考訳(メタデータ) (2023-07-15T07:16:38Z) - Interpretable Neural-Symbolic Concept Reasoning [7.1904050674791185]
概念に基づくモデルは、人間の理解可能な概念のセットに基づいてタスクを学習することでこの問題に対処することを目的としている。
本稿では,概念埋め込みに基づく最初の解釈可能な概念ベースモデルであるDeep Concept Reasoner (DCR)を提案する。
論文 参考訳(メタデータ) (2023-04-27T09:58:15Z) - Bayesian Learning for Neural Networks: an algorithmic survey [95.42181254494287]
この自己完結型調査は、ベイズ学習ニューラルネットワークの原理とアルゴリズムを読者に紹介する。
アクセシブルで実践的な視点からこのトピックを紹介します。
論文 参考訳(メタデータ) (2022-11-21T21:36:58Z) - Robust Training and Verification of Implicit Neural Networks: A
Non-Euclidean Contractive Approach [64.23331120621118]
本稿では,暗黙的ニューラルネットワークのトレーニングとロバスト性検証のための理論的および計算的枠組みを提案する。
組込みネットワークを導入し、組込みネットワークを用いて、元のネットワークの到達可能な集合の超近似として$ell_infty$-normボックスを提供することを示す。
MNISTデータセット上で暗黙的なニューラルネットワークをトレーニングするためにアルゴリズムを適用し、我々のモデルの堅牢性と、文献における既存のアプローチを通じてトレーニングされたモデルを比較する。
論文 参考訳(メタデータ) (2022-08-08T03:13:24Z) - PROTOtypical Logic Tensor Networks (PROTO-LTN) for Zero Shot Learning [2.236663830879273]
論理ネットワーク(英: Logic Networks, LTN)は、ディープニューラルネットワークに根ざした微分可能な一階述語論理に基づくニューロシンボリックシステムである。
ここでは、ほとんどの意味的画像解釈タスクをエンコードする基本となるsubsumptionまたはtextttisOfClass述語に焦点を当てる。
本稿では,オブジェクト埋め込みと対応するクラスプロトタイプ間の距離の関数を真理レベルとする,共通のtextttisOfClass述語を提案する。
論文 参考訳(メタデータ) (2022-06-26T18:34:07Z) - Kernelized Concept Erasure [108.65038124096907]
概念消去のための線形ミニマックスゲームのカーネル化を提案する。
特定の非線形敵が概念を予測するのを防ぐことができる。
しかし、保護は異なる非線形敵に移動しない。
論文 参考訳(メタデータ) (2022-01-28T15:45:13Z) - Paraconsistent Foundations for Probabilistic Reasoning, Programming and
Concept Formation [0.0]
4値のパラ一貫性真理値(ここでは「pビット」と呼ばれる)は、確率論的論理とプログラミングと概念形成の高度AI関連形式の概念的、数学的、実践的な基礎として機能する。
構成的双対(CD)論理に従って動作している4値のpビットの平均平均値と再正規化がPLN(Probabilistic Logic Networks)の強度と自信の真理値をもたらすことが示されている。
論文 参考訳(メタデータ) (2020-12-28T20:14:49Z) - An Integer Linear Programming Framework for Mining Constraints from Data [81.60135973848125]
データから制約をマイニングするための一般的なフレームワークを提案する。
特に、構造化された出力予測の推論を整数線形プログラミング(ILP)問題とみなす。
提案手法は,9×9のスドクパズルの解法を学習し,基礎となるルールを提供することなく,例からツリー問題を最小限に分散させることが可能であることを示す。
論文 参考訳(メタデータ) (2020-06-18T20:09:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。