論文の概要: Refining neural network predictions using background knowledge
- arxiv url: http://arxiv.org/abs/2206.04976v1
- Date: Fri, 10 Jun 2022 10:17:59 GMT
- ステータス: 処理完了
- システム内更新日: 2022-06-13 22:50:52.302402
- Title: Refining neural network predictions using background knowledge
- Title(参考訳): 背景知識を用いたニューラルネットワーク予測の精細化
- Authors: Alessandro Daniele, Emile van Krieken, Luciano Serafini, Frank van
Harmelen
- Abstract要約: 学習システムにおける論理的背景知識を用いて,ラベル付きトレーニングデータの不足を補うことができることを示す。
そこで本研究では,修正された予測を元の予測に近い精度で検出する微分可能精細関数を提案する。
このアルゴリズムは、複雑なSATの公式に対して、非常に少ない繰り返しで最適に洗練され、勾配降下ができない解がしばしば見つかる。
- 参考スコア(独自算出の注目度): 68.35246878394702
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Recent work has showed we can use logical background knowledge in learning
system to compensate for a lack of labeled training data. Many such methods
work by creating a loss function that encodes this knowledge. However, often
the logic is discarded after training, even if it is still useful at test-time.
Instead, we ensure neural network predictions satisfy the knowledge by refining
the predictions with an extra computation step. We introduce differentiable
refinement functions that find a corrected prediction close to the original
prediction.
We study how to effectively and efficiently compute these refinement
functions. Using a new algorithm, we combine refinement functions to find
refined predictions for logical formulas of any complexity. This algorithm
finds optimal refinements on complex SAT formulas in significantly fewer
iterations and frequently finds solutions where gradient descent can not.
- Abstract(参考訳): 近年の研究では、ラベル付きトレーニングデータの欠如を補うために、学習システムにおける論理的背景知識を活用できることが示されている。
このようなメソッドの多くは、この知識を符号化する損失関数を作成することで機能する。
しかし、たとえテスト時に有用であっても、トレーニング後にロジックは破棄されることが多い。
代わりに、ニューラルネットワークの予測は、余分な計算ステップで予測を精錬することで、知識を満足させる。
元の予測に近い補正された予測を求める微分可能な改良関数を導入する。
これらの改良関数を効果的かつ効率的に計算する方法について検討する。
新しいアルゴリズムを用いることで、複雑な論理式に対する洗練された予測を求めることができる。
このアルゴリズムは、より少ない反復で複素sat公式の最適細分化を見つけ、勾配降下ができない解を頻繁に見つける。
関連論文リスト
- Newton Losses: Using Curvature Information for Learning with Differentiable Algorithms [80.37846867546517]
カスタム目的の8つの異なるニューラルネットワークのトレーニング方法を示す。
我々はその2次情報を経験的フィッシャー行列を通して活用する。
ロスロスロスシブルアルゴリズムを用いて、少ない微分可能アルゴリズムに対する大幅な改善を実現する。
論文 参考訳(メタデータ) (2024-10-24T18:02:11Z) - SGD method for entropy error function with smoothing l0 regularization for neural networks [3.108634881604788]
エントロピー誤差関数はニューラルネットワークで広く使われている。
本稿では,フィードフォワードニューラルネットワークの規則化を円滑に行うエントロピー関数を提案する。
ニューラルネットワークを効果的に学習し、より正確な予測を可能にするため、私たちの仕事は新しくなっています。
論文 参考訳(メタデータ) (2024-05-28T19:54:26Z) - Guaranteed Approximation Bounds for Mixed-Precision Neural Operators [83.64404557466528]
我々は、ニューラル演算子学習が本質的に近似誤差を誘導する直感の上に構築する。
提案手法では,GPUメモリ使用量を最大50%削減し,スループットを58%向上する。
論文 参考訳(メタデータ) (2023-07-27T17:42:06Z) - The Cascaded Forward Algorithm for Neural Network Training [61.06444586991505]
本稿では,ニューラルネットワークのための新しい学習フレームワークであるCascaded Forward(CaFo)アルゴリズムを提案する。
FFとは異なり、我々のフレームワークは各カスケードブロックのラベル分布を直接出力する。
我々のフレームワークでは、各ブロックは独立して訓練できるので、並列加速度システムに容易に展開できる。
論文 参考訳(メタデータ) (2023-03-17T02:01:11Z) - Scalable computation of prediction intervals for neural networks via
matrix sketching [79.44177623781043]
既存の不確実性推定アルゴリズムでは、モデルアーキテクチャとトレーニング手順を変更する必要がある。
本研究では、与えられたトレーニングされたニューラルネットワークに適用し、近似予測間隔を生成できる新しいアルゴリズムを提案する。
論文 参考訳(メタデータ) (2022-05-06T13:18:31Z) - Predictive Coding: Towards a Future of Deep Learning beyond
Backpropagation? [41.58529335439799]
ディープニューラルネットワークのトレーニングに使用されるエラーアルゴリズムのバックプロパゲーションは、ディープラーニングの成功に不可欠である。
最近の研究は、このアイデアを、局所的な計算だけでニューラルネットワークを訓練できる汎用アルゴリズムへと発展させた。
等価ディープニューラルネットワークに対する予測符号化ネットワークの柔軟性が大幅に向上することを示す。
論文 参考訳(メタデータ) (2022-02-18T22:57:03Z) - Multigoal-oriented dual-weighted-residual error estimation using deep
neural networks [0.0]
ディープラーニングは、関数を近似する柔軟性の高い強力なツールだと考えられている。
提案手法は,誤差の局所化に付随する問題を解く後続誤差推定法に基づく。
複数のゴール関数に対する後方誤差推定を得るために,効率的で実装が容易なアルゴリズムを開発した。
論文 参考訳(メタデータ) (2021-12-21T16:59:44Z) - Robustification of Online Graph Exploration Methods [59.50307752165016]
我々は、古典的で有名なオンライングラフ探索問題の学習強化版について研究する。
本稿では,予測をよく知られたNearest Neighbor(NN)アルゴリズムに自然に統合するアルゴリズムを提案する。
論文 参考訳(メタデータ) (2021-12-10T10:02:31Z) - Convolutional Sparse Coding Fast Approximation with Application to
Seismic Reflectivity Estimation [9.005280130480308]
2~5回の反復で畳み込みスパース符号の良好な近似を生成する古典的反復しきい値アルゴリズムの高速化版を提案する。
提案手法の性能は, 合成シナリオと実データシナリオの両方において, 地震インバージョン問題によって実証される。
論文 参考訳(メタデータ) (2021-06-29T12:19:07Z) - An Empirical Study of Incremental Learning in Neural Network with Noisy
Training Set [0.0]
我々は,アルゴリズムの精度が誤差の割合よりも誤差の位置に依存することを数値的に示す。
その結果,誤差位置の精度依存性はアルゴリズムとは無関係であることが判明した。
論文 参考訳(メタデータ) (2020-05-07T06:09:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。