論文の概要: Learning Language Representations with Logical Inductive Bias
- arxiv url: http://arxiv.org/abs/2302.09458v1
- Date: Sun, 19 Feb 2023 02:21:32 GMT
- ステータス: 処理完了
- システム内更新日: 2023-02-21 18:28:17.964631
- Title: Learning Language Representations with Logical Inductive Bias
- Title(参考訳): 論理的帰納的バイアスによる言語表現の学習
- Authors: Jianshu Chen
- Abstract要約: より優れた言語表現学習のための新しい論理帰納バイアスについて検討する。
我々はこの新たな帰納バイアスを符号化するために、FOLNetという新しいニューラルネットワークを開発した。
変換器の自己アテンションモジュールは2つのニューラルロジック演算子によって構成できることがわかった。
- 参考スコア(独自算出の注目度): 19.842271716111153
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Transformer architectures have achieved great success in solving natural
language tasks, which learn strong language representations from large-scale
unlabeled texts. In this paper, we seek to go further beyond and explore a new
logical inductive bias for better language representation learning. Logic
reasoning is known as a formal methodology to reach answers from given
knowledge and facts. Inspired by such a view, we develop a novel neural
architecture named FOLNet (First-Order Logic Network), to encode this new
inductive bias. We construct a set of neural logic operators as learnable Horn
clauses, which are further forward-chained into a fully differentiable neural
architecture (FOLNet). Interestingly, we find that the self-attention module in
transformers can be composed by two of our neural logic operators, which
probably explains their strong reasoning performance. Our proposed FOLNet has
the same input and output interfaces as other pretrained models and thus could
be pretrained/finetuned by using similar losses. It also allows FOLNet to be
used in a plug-and-play manner when replacing other pretrained models. With our
logical inductive bias, the same set of ``logic deduction skills'' learned
through pretraining are expected to be equally capable of solving diverse
downstream tasks. For this reason, FOLNet learns language representations that
have much stronger transfer capabilities. Experimental results on several
language understanding tasks show that our pretrained FOLNet model outperforms
the existing strong transformer-based approaches.
- Abstract(参考訳): トランスフォーマーアーキテクチャは、大規模なラベルのないテキストから強い言語表現を学ぶ自然言語タスクの解決で大きな成功を収めた。
本稿では,より優れた言語表現学習のための新しい論理帰納的バイアスを探求する。
論理推論は、与えられた知識や事実から答えを得るための形式的方法論として知られている。
このような観点から着想を得た我々は、この新たな帰納バイアスを符号化するために、FOLNet(First-Order Logic Network)と呼ばれる新しいニューラルネットワークを開発した。
我々は,学習可能なホルン節として,完全微分可能なニューラルネットワーク(folnet)にフォワードチェーンされる一連のニューラルロジック演算子を構築した。
興味深いことに、トランスフォーマーの自己アテンションモジュールは、2つのニューラルネットワーク演算子によって構成できる。
提案するFOLNetは,他の事前学習モデルと同一の入力・出力インタフェースを持つため,同様の損失を用いて事前学習・微調整を行うことができる。
また、他の事前訓練されたモデルを置き換える際に、FOLNetをプラグアンドプレイで使用できる。
論理的な帰納的バイアスにより,事前学習によって学習した‘論理推論スキル’のセットは,下流のさまざまなタスクを等しく解くことができることが期待される。
このため、FOLNetはより強力な転送能力を持つ言語表現を学習する。
いくつかの言語理解タスクの実験結果は、事前訓練されたfolnetモデルは、既存の強力なトランスフォーマーベースのアプローチよりも優れていることを示している。
関連論文リスト
- Training Neural Networks as Recognizers of Formal Languages [87.06906286950438]
形式言語理論は、特に認識者に関するものである。
代わりに、非公式な意味でのみ類似したプロキシタスクを使用するのが一般的である。
ニューラルネットワークを文字列のバイナリ分類器として直接訓練し評価することで、このミスマッチを補正する。
論文 参考訳(メタデータ) (2024-11-11T16:33:25Z) - Empower Nested Boolean Logic via Self-Supervised Curriculum Learning [67.46052028752327]
大規模言語モデルを含む事前学習された言語モデルは、多言語論理に直面するランダムセレクタのように振る舞う。
この基本的能力で言語モデルを強化するために,本稿では,新たな自己教師付き学習手法であるtextitCurriculum Logical Reasoning (textscClr) を提案する。
論文 参考訳(メタデータ) (2023-10-09T06:54:02Z) - Modeling rapid language learning by distilling Bayesian priors into
artificial neural networks [18.752638142258668]
我々は、ベイズモデルの強い帰納バイアスとニューラルネットワークの柔軟な表現を組み合わせたアプローチで、制限された自然主義的データからの学習が可能であることを示す。
得られたシステムは少数の例から形式的な言語パターンを学習することができる。
また、自然言語のコーパスから英語の構文の側面を学ぶこともできる。
論文 参考訳(メタデータ) (2023-05-24T04:11:59Z) - Join-Chain Network: A Logical Reasoning View of the Multi-head Attention
in Transformer [59.73454783958702]
本稿では,多くの結合演算子を連結して出力論理式をモデル化するシンボリック推論アーキテクチャを提案する。
特に,このような結合鎖のアンサンブルが'ツリー構造'の1次論理式であるFOETの広い部分集合を表現できることを実証する。
変圧器における多頭部自己保持モジュールは,確率的述語空間における結合作用素の結合境界を実装する特別なニューラル演算子として理解することができる。
論文 参考訳(メタデータ) (2022-10-06T07:39:58Z) - Pre-Training a Graph Recurrent Network for Language Representation [34.4554387894105]
本稿では,言語モデルの事前学習のためのグラフリカレントネットワークについて考察し,各シーケンスのグラフ構造を局所的なトークンレベルの通信で構築する。
我々のモデルは、既存の注意に基づくモデルよりもコンテキスト化された特徴冗長性が少なく、より多様な出力を生成することができる。
論文 参考訳(メタデータ) (2022-09-08T14:12:15Z) - Is neural language acquisition similar to natural? A chronological
probing study [0.0515648410037406]
本稿では,MultiBERTやT5といったトランスフォーマー英語モデルの時系列探索について述べる。
コーパスの学習過程において,モデルが学習した言語に関する情報を比較した。
その結果,1)訓練の初期段階に言語情報を取得すること,2)両言語モデルが様々な言語レベルから様々な特徴を捉える能力を示した。
論文 参考訳(メタデータ) (2022-07-01T17:24:11Z) - LogiGAN: Learning Logical Reasoning via Adversarial Pre-training [58.11043285534766]
本稿では,言語モデルの論理的推論能力を向上させるために,教師なしの対人事前学習フレームワークLogiGANを提案する。
人間の学習におけるリフレクティブ思考の促進効果に着想を得て,逆生成検証アーキテクチャを用いて学習思考過程をシミュレートする。
LogiGANで事前トレーニングされたベースモデルと大規模言語モデルの両方で、12のデータセットで明らかなパフォーマンス改善が示されている。
論文 参考訳(メタデータ) (2022-05-18T08:46:49Z) - Dynamic Inference with Neural Interpreters [72.90231306252007]
本稿では,モジュールシステムとしての自己アテンションネットワークにおける推論を分解するアーキテクチャであるNeural Interpretersを提案する。
モデルへの入力は、エンドツーエンドの学習方法で一連の関数を通してルーティングされる。
ニューラル・インタープリタは、より少ないパラメータを用いて視覚変換器と同等に動作し、サンプル効率で新しいタスクに転送可能であることを示す。
論文 参考訳(メタデータ) (2021-10-12T23:22:45Z) - Leap-Of-Thought: Teaching Pre-Trained Models to Systematically Reason
Over Implicit Knowledge [96.92252296244233]
大規模な事前学習言語モデル(LM)は推論能力を得るが、制御は困難である。
本研究では,暗黙的,事前学習された知識と明示的な自然言語文を併用して,体系的推論を確実に行うことができることを示す。
我々の研究は、シンプルな自然言語文を追加することで、モデルを簡単に修正できるユーザと対話することで、常に改善されるオープンドメインシステムへの道を開く。
論文 参考訳(メタデータ) (2020-06-11T17:02:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。