論文の概要: Stateful Premise Selection by Recurrent Neural Networks
- arxiv url: http://arxiv.org/abs/2004.08212v1
- Date: Wed, 11 Mar 2020 14:59:37 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-24 13:20:16.532493
- Title: Stateful Premise Selection by Recurrent Neural Networks
- Title(参考訳): リカレントニューラルネットワークによるステートフルプリミズ選択
- Authors: Bartosz Piotrowski and Josef Urban
- Abstract要約: 本研究では,大規模な形式ライブラリ上での新たな目標の証明において,事実(前提)を選択するための新たな学習ベース手法を開発する。
我々のステートフルアーキテクチャは、最近言語翻訳のようなステートフルなタスクで成功しているリカレントニューラルネットワークに基づいている。
- 参考スコア(独自算出の注目度): 0.7614628596146599
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In this work, we develop a new learning-based method for selecting facts
(premises) when proving new goals over large formal libraries. Unlike previous
methods that choose sets of facts independently of each other by their rank,
the new method uses the notion of \emph{state} that is updated each time a
choice of a fact is made. Our stateful architecture is based on recurrent
neural networks which have been recently very successful in stateful tasks such
as language translation. The new method is combined with data augmentation
techniques, evaluated in several ways on a standard large-theory benchmark, and
compared to state-of-the-art premise approach based on gradient boosted trees.
It is shown to perform significantly better and to solve many new problems.
- Abstract(参考訳): 本研究では,大規模な形式ライブラリ上での新たな目標の証明において,事実(前提)を選択する学習ベースの手法を開発する。
ランクによって互いに独立して事実の集合を選択する従来の方法とは異なり、新しい方法は、事実の選択が行われる度に更新される \emph{state} という概念を使用する。
我々のステートフルアーキテクチャは、最近言語翻訳のようなステートフルなタスクで成功しているリカレントニューラルネットワークに基づいている。
新しい手法はデータ拡張手法と組み合わせられ、標準的な大規模理論ベンチマークでいくつかの方法で評価され、勾配強化木に基づく最先端の前提手法と比較される。
性能が著しく向上し、多くの新しい問題を解くことが示されている。
関連論文リスト
- Advancing Attribution-Based Neural Network Explainability through Relative Absolute Magnitude Layer-Wise Relevance Propagation and Multi-Component Evaluation [0.0]
本稿では,レイヤワイド関連伝播による入力ニューロンの関連性を決定する新しい手法を提案する。
その結果,提案手法の利点が明らかとなった。
本研究では, 忠実性, 頑健性, コントラスト性の概念を組み合わせた新しい評価指標を提案する。
論文 参考訳(メタデータ) (2024-12-12T14:25:56Z) - The Cascaded Forward Algorithm for Neural Network Training [61.06444586991505]
本稿では,ニューラルネットワークのための新しい学習フレームワークであるCascaded Forward(CaFo)アルゴリズムを提案する。
FFとは異なり、我々のフレームワークは各カスケードブロックのラベル分布を直接出力する。
我々のフレームワークでは、各ブロックは独立して訓練できるので、並列加速度システムに容易に展開できる。
論文 参考訳(メタデータ) (2023-03-17T02:01:11Z) - SLCNN: Sentence-Level Convolutional Neural Network for Text
Classification [0.0]
畳み込みニューラルネットワーク(CNN)は,テキスト分類のタスクにおいて顕著な成功を収めている。
CNNを用いたテキスト分類のための新しいベースラインモデルが研究されている。
結果から,提案したモデルの性能は,特に長いドキュメントにおいて向上していることがわかった。
論文 参考訳(メタデータ) (2023-01-27T13:16:02Z) - A Framework and Benchmark for Deep Batch Active Learning for Regression [2.093287944284448]
ラベル付きデータのバッチを適応的に選択する能動的学習法について検討した。
本稿では,ネットワークに依存した)ベースカーネル,カーネル変換,選択メソッドからそのようなメソッドを構築するためのフレームワークを提案する。
提案手法は,我々のベンチマークの最先端性,大規模データセットへのスケール,ネットワークアーキテクチャやトレーニングコードを調整することなく,アウト・オブ・ボックスで動作する。
論文 参考訳(メタデータ) (2022-03-17T16:11:36Z) - On Generalizing Beyond Domains in Cross-Domain Continual Learning [91.56748415975683]
ディープニューラルネットワークは、新しいタスクを学んだ後、これまで学んだ知識の破滅的な忘れ込みに悩まされることが多い。
提案手法は、ドメインシフト中の新しいタスクを精度良く学習することで、DomainNetやOfficeHomeといった挑戦的なデータセットで最大10%向上する。
論文 参考訳(メタデータ) (2022-03-08T09:57:48Z) - Local Critic Training for Model-Parallel Learning of Deep Neural
Networks [94.69202357137452]
そこで我々は,局所的批判訓練と呼ばれる新しいモデル並列学習手法を提案する。
提案手法は,畳み込みニューラルネットワーク(CNN)とリカレントニューラルネットワーク(RNN)の両方において,階層群の更新プロセスの分離に成功したことを示す。
また,提案手法によりトレーニングされたネットワークを構造最適化に利用できることを示す。
論文 参考訳(メタデータ) (2021-02-03T09:30:45Z) - Incremental Embedding Learning via Zero-Shot Translation [65.94349068508863]
現在の最先端のインクリメンタル学習手法は、従来の分類ネットワークにおける破滅的な忘れ方問題に取り組む。
ゼロショット変換クラス増分法(ZSTCI)と呼ばれる新しい組込みネットワークのクラス増分法を提案する。
さらに、ZSTCIを既存の正規化ベースのインクリメンタル学習手法と組み合わせることで、組み込みネットワークの性能をより向上させることができる。
論文 参考訳(メタデータ) (2020-12-31T08:21:37Z) - Region Comparison Network for Interpretable Few-shot Image
Classification [97.97902360117368]
新しいクラスのモデルをトレーニングするために、ラベル付きサンプルの限られた数だけを効果的に活用するための画像分類が提案されている。
本研究では,領域比較ネットワーク (RCN) と呼ばれる距離学習に基づく手法を提案する。
また,タスクのレベルからカテゴリへの解釈可能性の一般化も提案する。
論文 参考訳(メタデータ) (2020-09-08T07:29:05Z) - A Flexible Selection Scheme for Minimum-Effort Transfer Learning [27.920304852537534]
ファインチューニングは、トレーニング済みの畳み込みネットワークに含まれる知識を活用して、新しい視覚認識タスクを実現する方法として人気がある。
フレキシブルチューニング(flex-tuning)と呼ばれる,ネットワークの個々のユニットをチューニング可能な,新たなファインチューニング方式を導入する。
微調整された個々のユニットは、その単純さにもかかわらず、適応手法として非常に良い結果が得られることを示す。
論文 参考訳(メタデータ) (2020-08-27T08:57:30Z) - Neural Entity Linking: A Survey of Models Based on Deep Learning [82.43751915717225]
本調査では,2015年以降に開発されたニューラルエンティティリンク(EL)システムの包括的記述について報告する。
その目標は、ニューラルエンティティリンクシステムの設計機能を体系化し、それらのパフォーマンスを一般的なベンチマーク上の注目すべき古典的手法と比較することである。
この調査はエンティティリンクの応用に焦点をあて、最近出現した、深い事前訓練されたマスキング言語モデルを強化するユースケースに焦点を当てている。
論文 参考訳(メタデータ) (2020-05-31T18:02:26Z) - Unbiased Deep Reinforcement Learning: A General Training Framework for
Existing and Future Algorithms [3.7050607140679026]
本稿では、概念的に理解可能で、強化学習のための全ての実行可能なアルゴリズムに一般化し易い、新しいトレーニングフレームワークを提案する。
我々はモンテカルロサンプリングを用いて生のデータ入力を実現し、マルコフ決定プロセスシーケンスを達成するためにバッチでそれらを訓練する。
我々は、典型的な離散的かつ連続的なシナリオを扱うために、新しいフレームワークに埋め込まれたアルゴリズムをいくつか提案する。
論文 参考訳(メタデータ) (2020-05-12T01:51:08Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。