論文の概要: Comparing Differentiable Logics for Learning Systems: A Research Preview
- arxiv url: http://arxiv.org/abs/2311.09809v1
- Date: Thu, 16 Nov 2023 11:33:08 GMT
- ステータス: 処理完了
- システム内更新日: 2023-11-17 14:28:26.146710
- Title: Comparing Differentiable Logics for Learning Systems: A Research Preview
- Title(参考訳): 学習システムのための微分論理の比較:研究プレビュー
- Authors: Thomas Flinkow (Maynooth University), Barak A. Pearlmutter (Maynooth
University), Rosemary Monahan (Maynooth University)
- Abstract要約: 機械学習(ML)システムの形式的検証に関する研究は、データのみからの学習が、基礎となる背景知識を捉えるのに失敗することが多いことを示唆している。
制約を本質的に満足するMLモデルを作成するための有望なアプローチは、バックグラウンド知識を論理的制約としてエンコードし、いわゆる微分可能な論理を通じて学習プロセスを導くことである。
本研究のプレビューでは、弱教師付き文脈における文献の様々な論理を比較検討し、その結果を提示し、今後の研究に向けたオープンな問題を強調する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Extensive research on formal verification of machine learning (ML) systems
indicates that learning from data alone often fails to capture underlying
background knowledge. A variety of verifiers have been developed to ensure that
a machine-learnt model satisfies correctness and safety properties, however,
these verifiers typically assume a trained network with fixed weights.
ML-enabled autonomous systems are required to not only detect incorrect
predictions, but should also possess the ability to self-correct, continuously
improving and adapting. A promising approach for creating ML models that
inherently satisfy constraints is to encode background knowledge as logical
constraints that guide the learning process via so-called differentiable
logics. In this research preview, we compare and evaluate various logics from
the literature in weakly-supervised contexts, presenting our findings and
highlighting open problems for future work. Our experimental results are
broadly consistent with results reported previously in literature; however,
learning with differentiable logics introduces a new hyperparameter that is
difficult to tune and has significant influence on the effectiveness of the
logics.
- Abstract(参考訳): 機械学習(ML)システムの形式的検証に関する広範な研究は、データのみから学ぶことは、基礎となる背景知識を捉えるのに失敗することが多いことを示している。
機械学習モデルが正確性と安全性を満足するように、様々な検証器が開発されたが、これらの検証器は通常、固定重量の訓練されたネットワークを仮定する。
ML対応の自律システムは、誤った予測を検出するだけでなく、自己修正、継続的な改善、適応の能力も必要である。
制約を本質的に満足するMLモデルを作成するための有望なアプローチは、バックグラウンド知識を論理的制約としてエンコードし、いわゆる微分可能な論理を通じて学習プロセスを導くことである。
本研究プレビューでは,弱教師付き文脈における文学の諸論理の比較・評価を行い,その結果を提示し,今後の課題を浮き彫りにする。
実験結果は文献で報告された結果と大きく一致しているが,異なる論理を用いた学習ではチューニングが困難で,論理の有効性に大きな影響を及ぼす新しいハイパーパラメータが導入された。
関連論文リスト
- A Closer Look at the Self-Verification Abilities of Large Language
Models in Logical Reasoning [79.14479982371984]
論理的推論の文脈において,大規模言語モデル(LLM)の自己検証能力について詳しく検討する。
本研究の主目的は,既存のLCMが誤った推論手順を正確に識別するのに苦労し,自己検証法の有効性を保証できないことにある。
論文 参考訳(メタデータ) (2023-11-14T07:13:10Z) - Towards LogiGLUE: A Brief Survey and A Benchmark for Analyzing Logical
Reasoning Capabilities of Language Models [58.76688462256284]
大規模言語モデル(LLM)は、形式的知識表現(KR)システムの様々な制限を克服する能力を示した。
一つのタスクトレーニング,複数タスクトレーニング,および思考知識の蒸留微調整手法の連鎖について検討し,異なる論理的推論カテゴリにおけるモデルの性能を評価する。
論文 参考訳(メタデータ) (2023-10-02T01:00:50Z) - Dynamic Model Agnostic Reliability Evaluation of Machine-Learning
Methods Integrated in Instrumentation & Control Systems [1.8978726202765634]
データ駆動型ニューラルネットワークベースの機械学習アルゴリズムの信頼性は十分に評価されていない。
National Institute for Standards and Technologyの最近のレポートでは、MLにおける信頼性は採用にとって重要な障壁となっている。
トレーニングデータセットにアウト・オブ・ディストリビューション検出を組み込むことにより、ML予測の相対的信頼性を評価するためのリアルタイムモデル非依存手法を実証する。
論文 参考訳(メタデータ) (2023-08-08T18:25:42Z) - Interpretable Multimodal Misinformation Detection with Logic Reasoning [31.97249246223621]
本稿では,多モーダル誤情報検出のための論理モデルを提案する。
本稿では,意味のある論理節の自動生成と評価を容易にするニューラル表現を用いた記号論理要素のパラメータ化を行う。
3つの公開データセットの結果は、我々のモデルの有効性と汎用性を示している。
論文 参考訳(メタデータ) (2023-05-10T08:16:36Z) - Neuro-symbolic model for cantilever beams damage detection [0.0]
本稿では,新しい認知アーキテクチャに基づくカンチレバービームの損傷検出のためのニューロシンボリックモデルを提案する。
ハイブリッド識別モデルはLogic Convolutional Neural Regressorという名称で導入されている。
論文 参考訳(メタデータ) (2023-05-04T13:12:39Z) - Reduced Implication-bias Logic Loss for Neuro-Symbolic Learning [11.343715006460577]
異なる演算子は、バックプロパゲーション中に有意なバイアスをもたらし、ニューロ・シンボリック学習の性能を低下させる可能性がある。
本稿では,バイアス付き損失関数をtextitReduced Implication-bias Logic Loss に変換する方法を提案する。
経験的研究により、RILLはバイアスド論理損失関数よりも大幅に改善できることが示された。
論文 参考訳(メタデータ) (2022-08-14T11:57:46Z) - Neuro-Symbolic Inductive Logic Programming with Logical Neural Networks [65.23508422635862]
我々は最近提案された論理ニューラルネットワーク(LNN)を用いた学習規則を提案する。
他のものと比較して、LNNは古典的なブール論理と強く結びついている。
標準ベンチマークタスクの実験では、LNNルールが極めて解釈可能であることを確認した。
論文 参考訳(メタデータ) (2021-12-06T19:38:30Z) - FF-NSL: Feed-Forward Neural-Symbolic Learner [70.978007919101]
本稿では,Feed-Forward Neural-Symbolic Learner (FF-NSL) と呼ばれるニューラルシンボリック学習フレームワークを紹介する。
FF-NSLは、ラベル付き非構造化データから解釈可能な仮説を学習するために、Answer Setセマンティクスに基づく最先端のICPシステムとニューラルネットワークを統合する。
論文 参考訳(メタデータ) (2021-06-24T15:38:34Z) - Gone Fishing: Neural Active Learning with Fisher Embeddings [55.08537975896764]
ディープニューラルネットワークと互換性のあるアクティブな学習アルゴリズムの必要性が高まっている。
本稿では,ニューラルネットワークのための抽出可能かつ高性能な能動学習アルゴリズムBAITを紹介する。
論文 参考訳(メタデータ) (2021-06-17T17:26:31Z) - Transfer Learning without Knowing: Reprogramming Black-box Machine
Learning Models with Scarce Data and Limited Resources [78.72922528736011]
そこで我々は,ブラックボックス・アタベラル・リプログラミング (BAR) という新しい手法を提案する。
ゼロオーダー最適化とマルチラベルマッピング技術を用いて、BARは入力出力応答のみに基づいてブラックボックスMLモデルをプログラムする。
BARは最先端の手法より優れ、バニラ対逆プログラミング法に匹敵する性能を得る。
論文 参考訳(メタデータ) (2020-07-17T01:52:34Z) - Relational Neural Machines [19.569025323453257]
本稿では,学習者のパラメータと一階論理に基づく推論を共同で学習するフレームワークを提案する。
ニューラルネットワークは、純粋な準記号学習の場合の古典的な学習結果とマルコフ論理ネットワークの両方を復元することができる。
適切なアルゴリズム解は、大規模な問題において学習と推論が引き出すことができるように考案されている。
論文 参考訳(メタデータ) (2020-02-06T10:53:57Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。