論文の概要: Learning Modulo Theories
- arxiv url: http://arxiv.org/abs/2301.11435v1
- Date: Thu, 26 Jan 2023 21:46:23 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-30 17:08:06.729500
- Title: Learning Modulo Theories
- Title(参考訳): モジュラー理論の学習
- Authors: Matt Fredrikson, Kaiji Lu, Saranya Vijayakumar, Somesh Jha, Vijay
Ganesh, Zifan Wang
- Abstract要約: 深層ニューラルネットワーク(Deep Neural Networks:DNN)にエファンゾルバ層を統合する最近の技術は、帰納的学習と象徴的推論技術の間の長年のギャップを埋めることにおいて、有望であることを示している。
本稿では,EmphSatisfiability Modulo Theories (SMT)ソルバを深層ネットワーク層(SMTLayer)の前方・後方パスに統合する手法について述べる。
- 参考スコア(独自算出の注目度): 47.04194097652154
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Recent techniques that integrate \emph{solver layers} into Deep Neural
Networks (DNNs) have shown promise in bridging a long-standing gap between
inductive learning and symbolic reasoning techniques. In this paper we present
a set of techniques for integrating \emph{Satisfiability Modulo Theories} (SMT)
solvers into the forward and backward passes of a deep network layer, called
SMTLayer. Using this approach, one can encode rich domain knowledge into the
network in the form of mathematical formulas. In the forward pass, the solver
uses symbols produced by prior layers, along with these formulas, to construct
inferences; in the backward pass, the solver informs updates to the network,
driving it towards representations that are compatible with the solver's
theory. Notably, the solver need not be differentiable. We implement \layername
as a Pytorch module, and our empirical results show that it leads to models
that \emph{1)} require fewer training samples than conventional models,
\emph{2)} that are robust to certain types of covariate shift, and \emph{3)}
that ultimately learn representations that are consistent with symbolic
knowledge, and thus naturally interpretable.
- Abstract(参考訳): 近年、ディープニューラルネットワーク (dnn) に \emph{solver layers} を統合する技術は、帰納的学習と記号的推論の長年のギャップを埋めることに有望である。
本稿では,SMTLayer と呼ばれるディープネットワーク層の前方・後方通過に \emph{Satisfiability Modulo Theories} (SMT) ソルバを統合する手法について述べる。
このアプローチを用いることで、リッチなドメイン知識を数学的公式の形でネットワークにエンコードすることができる。
前方通過では、解法は、これらの式とともに前の層によって生成されたシンボルを使用して推論を構築し、後方通過では、解法はネットワークへの更新を通知し、解法の理論と互換性のある表現へと誘導する。
特に、解法は微分可能である必要はない。
我々は、pytorch モジュールとして \layername を実装し、経験的な結果から、従来のモデルよりもトレーニングサンプルの少ない \emph{1)}、特定のタイプの共変量シフトに頑健な \emph{2)}、そして最終的に記号的知識に一致する表現を学習する \emph{3)} 、そして自然に解釈可能なモデルへと導かれることが示されている。
関連論文リスト
- Neural Metamorphosis [72.88137795439407]
本稿では,ニューラル・メタモルファス(NeuMeta)と呼ばれる,自己変形可能なニューラルネットワークの構築を目的とした新たな学習パラダイムを提案する。
NeuMetaはニューラルネットワークの連続重み多様体を直接学習する。
75%の圧縮速度でもフルサイズの性能を維持する。
論文 参考訳(メタデータ) (2024-10-10T14:49:58Z) - A foundation for exact binarized morphological neural networks [2.8925699537310137]
ディープニューラルネットワーク(NN)のトレーニングと実行は、多くの計算とエネルギー集約的な特別なハードウェアを必要とすることが多い。
計算量と消費電力を減らす方法の1つは二重NNを使うことであるが、これは符号関数が非滑らかな勾配を持つため訓練が困難である。
本研究では,特定の条件下での性能を損なうことなく,ConvNetを二項化できる数学的形態(MM)に基づくモデルを提案する。
論文 参考訳(メタデータ) (2024-01-08T11:37:44Z) - Adaptive Convolutional Dictionary Network for CT Metal Artifact
Reduction [62.691996239590125]
本稿では,金属人工物削減のための適応畳み込み辞書ネットワーク(ACDNet)を提案する。
我々のACDNetは、トレーニングデータを介して、アーティファクトフリーCT画像の事前を自動で学習し、入力されたCT画像ごとに表現カーネルを適応的に調整することができる。
本手法は,モデルに基づく手法の明確な解釈可能性を継承し,学習に基づく手法の強力な表現能力を維持する。
論文 参考訳(メタデータ) (2022-05-16T06:49:36Z) - Gradient Descent Optimizes Infinite-Depth ReLU Implicit Networks with
Linear Widths [25.237054775800164]
本稿では非線形ReLU活性化暗黙ネットワークにおける勾配流と勾配勾配の収束について検討する。
GF と GD のどちらも,暗黙的ネットワークの幅$m$ が標本サイズでテキストリニアであれば,線形速度で大域最小値に収束することが証明される。
論文 参考訳(メタデータ) (2022-05-16T06:07:56Z) - Graph Modularity: Towards Understanding the Cross-Layer Transition of
Feature Representations in Deep Neural Networks [7.187240308034312]
我々は、ディープニューラルネットワーク(DNN)における特徴表現の遷移を理解するための小さな一歩を踏み出した。
まず、中間層におけるクラス分離を解析し、次に、動的グラフにおけるコミュニティ進化としてクラス分離の過程をモデル化する。
モジュラリティは層が深くなるにつれて上昇する傾向にあるが、特定の層で隆起するか、あるいは隆起する傾向にある。
論文 参考訳(メタデータ) (2021-11-24T13:29:17Z) - Dynamic Inference with Neural Interpreters [72.90231306252007]
本稿では,モジュールシステムとしての自己アテンションネットワークにおける推論を分解するアーキテクチャであるNeural Interpretersを提案する。
モデルへの入力は、エンドツーエンドの学習方法で一連の関数を通してルーティングされる。
ニューラル・インタープリタは、より少ないパラメータを用いて視覚変換器と同等に動作し、サンプル効率で新しいタスクに転送可能であることを示す。
論文 参考訳(メタデータ) (2021-10-12T23:22:45Z) - Convergence dynamics of Generative Adversarial Networks: the dual metric
flows [0.0]
機械学習におけるGenerative Adversarial Networksの収束性について検討する。
学習速度の制限について検討し,単一ネットワーク学習と同様にgan学習ダイナミクスはある程度の限界ダイナミクスまで消失する傾向があることを示した。
論文 参考訳(メタデータ) (2020-12-18T18:00:12Z) - Understanding Self-supervised Learning with Dual Deep Networks [74.92916579635336]
本稿では,2組の深層ReLUネットワークを用いたコントラスト型自己教師学習(SSL)手法を理解するための新しい枠組みを提案する。
種々の損失関数を持つSimCLRの各SGD更新において、各層の重みは共分散演算子によって更新されることを示す。
共分散演算子の役割と、そのようなプロセスでどのような特徴が学習されるかをさらに研究するために、我々は、階層的潜在木モデル(HLTM)を用いて、データ生成および増大過程をモデル化する。
論文 参考訳(メタデータ) (2020-10-01T17:51:49Z) - Belief Propagation Reloaded: Learning BP-Layers for Labeling Problems [83.98774574197613]
最も単純な推論手法の1つとして、切り詰められた最大積のBelief伝播を取り上げ、それをディープラーニングモデルの適切なコンポーネントにするために必要となるものを加えます。
このBP-Layerは畳み込みニューラルネットワーク(CNN)の最終ブロックまたは中間ブロックとして使用できる
このモデルは様々な密集予測問題に適用可能であり、パラメータ効率が高く、ステレオ、光フロー、セマンティックセグメンテーションにおける堅牢な解を提供する。
論文 参考訳(メタデータ) (2020-03-13T13:11:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。