論文の概要: Leap-Of-Thought: Teaching Pre-Trained Models to Systematically Reason
Over Implicit Knowledge
- arxiv url: http://arxiv.org/abs/2006.06609v3
- Date: Sat, 14 Nov 2020 07:47:21 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-22 09:19:00.277751
- Title: Leap-Of-Thought: Teaching Pre-Trained Models to Systematically Reason
Over Implicit Knowledge
- Title(参考訳): leap-of-thought: 事前学習されたモデルに暗黙の知識を体系的に推論する教育
- Authors: Alon Talmor, Oyvind Tafjord, Peter Clark, Yoav Goldberg, Jonathan
Berant
- Abstract要約: 大規模な事前学習言語モデル(LM)は推論能力を得るが、制御は困難である。
本研究では,暗黙的,事前学習された知識と明示的な自然言語文を併用して,体系的推論を確実に行うことができることを示す。
我々の研究は、シンプルな自然言語文を追加することで、モデルを簡単に修正できるユーザと対話することで、常に改善されるオープンドメインシステムへの道を開く。
- 参考スコア(独自算出の注目度): 96.92252296244233
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: To what extent can a neural network systematically reason over symbolic
facts? Evidence suggests that large pre-trained language models (LMs) acquire
some reasoning capacity, but this ability is difficult to control. Recently, it
has been shown that Transformer-based models succeed in consistent reasoning
over explicit symbolic facts, under a "closed-world" assumption. However, in an
open-domain setup, it is desirable to tap into the vast reservoir of implicit
knowledge already encoded in the parameters of pre-trained LMs. In this work,
we provide a first demonstration that LMs can be trained to reliably perform
systematic reasoning combining both implicit, pre-trained knowledge and
explicit natural language statements. To do this, we describe a procedure for
automatically generating datasets that teach a model new reasoning skills, and
demonstrate that models learn to effectively perform inference which involves
implicit taxonomic and world knowledge, chaining and counting. Finally, we show
that "teaching" models to reason generalizes beyond the training distribution:
they successfully compose the usage of multiple reasoning skills in single
examples. Our work paves a path towards open-domain systems that constantly
improve by interacting with users who can instantly correct a model by adding
simple natural language statements.
- Abstract(参考訳): ニューラルネットワークは、シンボリックな事実をどの程度体系的に推論できるか?
大きな事前学習言語モデル(lms)はいくつかの推論能力を持っているが、この能力を制御するのは困難である。
近年、トランスフォーマーに基づくモデルは「クローズドワールド」仮定の下で、明示的な象徴的事実に対して一貫した推論に成功したことが示されている。
しかし、オープンドメインのセットアップでは、既に訓練済みのLMのパラメータにエンコードされている暗黙の知識の広大な貯水池を利用するのが望ましい。
本研究では, 暗黙的, 事前学習された知識と明示的な自然言語文を組み合わせることで, lmsが系統的推論を確実に行うように訓練できることを示す。
そこで本研究では,モデルに新しい推論スキルを教えるデータセットを自動生成する手法について述べるとともに,モデルが暗黙の分類学や世界知識,連鎖と数え込みを含む推論を効果的に行うことを実証する。
最後に,「理性教育」モデルが学習分布を超えて一般化することを示し,複数の理性学習スキルをひとつの例にまとめることに成功した。
我々の研究は、シンプルな自然言語文を追加することで、モデルを簡単に修正できるユーザと対話することで、常に改善されるオープンドメインシステムへの道を開く。
関連論文リスト
- QA-NatVer: Question Answering for Natural Logic-based Fact Verification [11.002475880349452]
我々は自然論理演算子を予測するために質問応答を用いることを提案する。
FEVERのいくつかの設定では、我々のアプローチは最高のベースラインを4.3ドルの精度で上回っている。
人間の評価から,本手法は,従来の自然論理に基づくシステムよりも,誤動作の少ない自然論理演算子でより妥当であることが示唆された。
論文 参考訳(メタデータ) (2023-10-22T06:27:31Z) - Explainability for Large Language Models: A Survey [59.67574757137078]
大規模言語モデル(LLM)は、自然言語処理における印象的な能力を示している。
本稿では,トランスフォーマーに基づく言語モデルを記述する手法について,説明可能性の分類法を紹介した。
論文 参考訳(メタデータ) (2023-09-02T22:14:26Z) - On Conditional and Compositional Language Model Differentiable Prompting [75.76546041094436]
プロンプトは、下流タスクでうまく機能するために、凍結した事前訓練言語モデル(PLM)を適応するための効果的な方法であることが示されている。
タスク命令や入力メタデータを連続的なプロンプトに変換することを学習する新しいモデル Prompt Production System (PRopS) を提案する。
論文 参考訳(メタデータ) (2023-07-04T02:47:42Z) - Commonsense Knowledge Transfer for Pre-trained Language Models [83.01121484432801]
ニューラルコモンセンス知識モデルに格納されたコモンセンス知識を汎用的な事前学習言語モデルに転送するフレームワークであるコモンセンス知識伝達を導入する。
まず、一般的なテキストを利用して、ニューラルコモンセンス知識モデルからコモンセンス知識を抽出するクエリを形成する。
次に、コモンセンスマスクの埋め込みとコモンセンスの関係予測という2つの自己教師対象で言語モデルを洗練する。
論文 参考訳(メタデータ) (2023-06-04T15:44:51Z) - ALERT: Adapting Language Models to Reasoning Tasks [43.8679673685468]
ALERTは、言語モデルの推論能力を評価するためのベンチマークと分析スイートである。
ALERTは、あらゆる言語モデルに対して、きめ細かい推論スキルを評価するためのテストベッドを提供する。
言語モデルは、事前学習状態と比較して、微調整段階の推論スキルを学習する。
論文 参考訳(メタデータ) (2022-12-16T05:15:41Z) - Large Language Models with Controllable Working Memory [64.71038763708161]
大規模言語モデル(LLM)は、自然言語処理(NLP)の一連のブレークスルーをもたらした。
これらのモデルをさらに切り離すのは、事前訓練中に内在する膨大な量の世界的知識だ。
モデルの世界知識が、文脈で提示された事実情報とどのように相互作用するかは、まだ解明されていない。
論文 参考訳(メタデータ) (2022-11-09T18:58:29Z) - Does Pre-training Induce Systematic Inference? How Masked Language
Models Acquire Commonsense Knowledge [91.15301779076187]
プレトレーニング中のBERTモデルのミニバッチに言語知識を導入し、モデルがサポート対象の推論にどの程度うまく一般化するかを評価する。
一般化は事前学習の過程では改善せず, 帰納的, 体系的推論ではなく, 表面的, 共起的パターンからコモンセンス知識が獲得されることが示唆された。
論文 参考訳(メタデータ) (2021-12-16T03:13:04Z) - Learning to Rationalize for Nonmonotonic Reasoning with Distant
Supervision [44.32874972577682]
モデル予測を説明する自然言語の理性について,ニューラルモデルが判断できる範囲について検討する。
トレーニング済みの言語モデル、ニューラルナレッジモデル、関連するタスクからの遠隔監視を使用します。
我々のモデルは、追加情報から推論が多かれ少なかれ起こりそうな理由を説明するポストホック論理を生成することを約束している。
論文 参考訳(メタデータ) (2020-12-14T23:50:20Z) - Facts as Experts: Adaptable and Interpretable Neural Memory over
Symbolic Knowledge [38.48518306055536]
我々は、象徴的解釈可能な事実情報とサブシンボル的神経知識との明確なインターフェースを含むニューラル言語モデルを開発する。
このモデルは,2つの知識集約型質問応答タスクの性能を劇的に向上させることを示す。
論文 参考訳(メタデータ) (2020-07-02T03:05:41Z) - Teaching Pretrained Models with Commonsense Reasoning: A Preliminary
KB-Based Approach [24.954288132238293]
本研究では,コンセプションネットにおける構造化知識を活用することで,コモンセンス推論を用いた事前学習モデルを教える手法を提案する。
実験結果から,これらのトレーニング例を改良すると,事前学習したモデルは,常識的推論を必要とするタスクにおける性能を常に向上することが示された。
論文 参考訳(メタデータ) (2019-09-20T23:58:11Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。