論文の概要: Injecting Domain Knowledge in Neural Networks: a Controlled Experiment
on a Constrained Problem
- arxiv url: http://arxiv.org/abs/2002.10742v1
- Date: Tue, 25 Feb 2020 08:59:34 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-28 20:45:06.827171
- Title: Injecting Domain Knowledge in Neural Networks: a Controlled Experiment
on a Constrained Problem
- Title(参考訳): ニューラルネットワークにおけるドメイン知識の注入:制約付き問題に対する制御実験
- Authors: Mattia Silvestri, Michele Lombardi, Michela Milano
- Abstract要約: ディープニューラルネットワーク(DNN)は、複雑な入出力関係を高精度に学習することができる。
いくつかのドメインでは、データを取得するのに不足またはコストがかかります。
学習時にドメイン知識を埋め込むと、かなりの効果が得られ、経験的知識が少量で十分であり、実用的な結果が得られることを示す。
- 参考スコア(独自算出の注目度): 16.955624682908557
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Given enough data, Deep Neural Networks (DNNs) are capable of learning
complex input-output relations with high accuracy. In several domains, however,
data is scarce or expensive to retrieve, while a substantial amount of expert
knowledge is available. It seems reasonable that if we can inject this
additional information in the DNN, we could ease the learning process. One such
case is that of Constraint Problems, for which declarative approaches exists
and pure ML solutions have obtained mixed success. Using a classical
constrained problem as a case study, we perform controlled experiments to probe
the impact of progressively adding domain and empirical knowledge in the DNN.
Our results are very encouraging, showing that (at least in our setup)
embedding domain knowledge at training time can have a considerable effect and
that a small amount of empirical knowledge is sufficient to obtain practically
useful results.
- Abstract(参考訳): 十分なデータがあれば、Deep Neural Networks (DNN) は複雑な入出力関係を高精度に学習することができる。
しかし、いくつかのドメインでは、大量の専門家の知識が利用可能であるのに対して、データを取得するのにコストがかからない。
もしこの追加情報をDNNに注入できれば、学習プロセスは簡単になるでしょう。
そのような場合の1つは制約問題であり、宣言的アプローチが存在し、純粋なMLソリューションが混合の成功をもたらしている。
古典的制約付き問題をケーススタディとして、DNNにおけるドメインと経験的知識の漸進的な追加の影響を探索する制御実験を行った。
我々の研究結果は、(少なくとも私たちの設定では)訓練時にドメイン知識を埋め込むことでかなりの効果が得られ、少量の経験的知識が実用的な結果を得るのに十分であることを示している。
関連論文リスト
- Are Sparse Neural Networks Better Hard Sample Learners? [24.2141078613549]
ディープニューラルネットワークの最適性能において、ハードサンプルは重要な役割を果たす。
挑戦的なサンプルに基づいてトレーニングされたほとんどのSNNは、特定の間隔レベルで精度の高いモデルにマッチしたり、超えたりすることができる。
論文 参考訳(メタデータ) (2024-09-13T21:12:18Z) - Towards Certified Unlearning for Deep Neural Networks [50.816473152067104]
認定されていない未学習は、凸機械学習モデルで広く研究されている。
認定アンラーニングとディープニューラルネットワーク(DNN)のギャップを埋める手法をいくつか提案する。
論文 参考訳(メタデータ) (2024-08-01T21:22:10Z) - DeepKnowledge: Generalisation-Driven Deep Learning Testing [2.526146573337397]
DeepKnowledgeは、DNNベースのシステムの体系的なテスト手法である。
堅牢性を高め、'ブラックボックス'モデルの残留リスクを低減することを目的としている。
本報告では, 対人攻撃検出のための最先端のサーベイ基準に対して, 最大10ポイントの改善を報告した。
論文 参考訳(メタデータ) (2024-03-25T13:46:09Z) - Bayesian Neural Networks with Domain Knowledge Priors [52.80929437592308]
ドメイン知識の一般的な形式をBNNに組み込むためのフレームワークを提案する。
提案したドメイン知識を用いたBNNは,標準知識のBNNよりも優れていることを示す。
論文 参考訳(メタデータ) (2024-02-20T22:34:53Z) - Making a Spiking Net Work: Robust brain-like unsupervised machine
learning [0.0]
Spiking Neural Networks (SNN)は、Artificial Neural Networks (ANN)の代替品である
SNNは動的安定性に悩まされており、ANNの精度と一致しない。
本稿では,SNNが文献で確認された多くの欠点を克服する方法について述べる。
論文 参考訳(メタデータ) (2022-08-02T02:10:00Z) - Do Deep Neural Networks Always Perform Better When Eating More Data? [82.6459747000664]
Identically Independent Distribution(IID)とOut of Distribution(OOD)による実験を設計する。
IID条件下では、情報の量は各サンプルの効果度、サンプルの寄与度、クラス間の差がクラス情報の量を決定する。
OOD条件下では、試料のクロスドメイン度が寄与を決定づけ、無関係元素によるバイアス適合はクロスドメインの重要な要素である。
論文 参考訳(メタデータ) (2022-05-30T15:40:33Z) - Characterizing possible failure modes in physics-informed neural
networks [55.83255669840384]
科学機械学習における最近の研究は、いわゆる物理情報ニューラルネットワーク(PINN)モデルを開発した。
既存のPINN方法論は比較的自明な問題に対して優れたモデルを学ぶことができるが、単純なPDEであっても、関連する物理現象を学習するのに失敗する可能性があることを実証する。
これらの障害モードは,NNアーキテクチャの表現力の欠如によるものではなく,PINNのセットアップによって損失状況の最適化が極めて困難であることを示す。
論文 参考訳(メタデータ) (2021-09-02T16:06:45Z) - A Survey on Knowledge integration techniques with Artificial Neural
Networks for seq-2-seq/time series models [0.456877715768796]
ディープニューラルネットワークは、いくつかの領域における未チャージ領域の探索を可能にしている。
しかし、データ不足、データ品質の低さ、ドメインを広くカバーしていないかもしれないデータにより、パフォーマンスは低かった。
本稿では、シークエンス・ツー・シークエンスと時系列モデルのための専門知識をディープニューラルネットワークに統合する手法について検討する。
論文 参考訳(メタデータ) (2020-08-13T15:40:38Z) - Boosting Deep Neural Networks with Geometrical Prior Knowledge: A Survey [77.99182201815763]
ディープニューラルネットワーク(DNN)は多くの異なる問題設定において最先端の結果を達成する。
DNNはしばしばブラックボックスシステムとして扱われ、評価と検証が複雑になる。
コンピュータビジョンタスクにおける畳み込みニューラルネットワーク(CNN)の成功に触発された、有望な分野のひとつは、対称幾何学的変換に関する知識を取り入れることである。
論文 参考訳(メタデータ) (2020-06-30T14:56:05Z) - Architecture Disentanglement for Deep Neural Networks [174.16176919145377]
ディープニューラルネットワーク(DNN)の内部動作を説明するために,ニューラルアーキテクチャ・ディコンタングルメント(NAD)を導入する。
NADは、訓練済みのDNNを独立したタスクに従ってサブアーキテクチャに切り離すことを学び、推論プロセスを記述する情報フローを形成する。
その結果、誤分類された画像は、タスクサブアーキテクチャーに正しいサブアーキテクチャーに割り当てられる確率が高いことが示された。
論文 参考訳(メタデータ) (2020-03-30T08:34:33Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。