論文の概要: Teaching Pretrained Models with Commonsense Reasoning: A Preliminary
KB-Based Approach
- arxiv url: http://arxiv.org/abs/1909.09743v2
- Date: Thu, 16 Feb 2023 08:07:46 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-25 04:23:27.096238
- Title: Teaching Pretrained Models with Commonsense Reasoning: A Preliminary
KB-Based Approach
- Title(参考訳): コモンセンス推論による事前学習モデル教育--予備kbベースアプローチ
- Authors: Shiyang Li, Jianshu Chen, Dian Yu
- Abstract要約: 本研究では,コンセプションネットにおける構造化知識を活用することで,コモンセンス推論を用いた事前学習モデルを教える手法を提案する。
実験結果から,これらのトレーニング例を改良すると,事前学習したモデルは,常識的推論を必要とするタスクにおける性能を常に向上することが示された。
- 参考スコア(独自算出の注目度): 24.954288132238293
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Recently, pretrained language models (e.g., BERT) have achieved great success
on many downstream natural language understanding tasks and exhibit a certain
level of commonsense reasoning ability. However, their performance on
commonsense tasks is still far from that of humans. As a preliminary attempt,
we propose a simple yet effective method to teach pretrained models with
commonsense reasoning by leveraging the structured knowledge in ConceptNet, the
largest commonsense knowledge base (KB). Specifically, the structured knowledge
in KB allows us to construct various logical forms, and then generate
multiple-choice questions requiring commonsense logical reasoning. Experimental
results demonstrate that, when refined on these training examples, the
pretrained models consistently improve their performance on tasks that require
commonsense reasoning, especially in the few-shot learning setting. Besides, we
also perform analysis to understand which logical relations are more relevant
to commonsense reasoning.
- Abstract(参考訳): 近年、事前訓練された言語モデル(例えばBERT)は多くの下流の自然言語理解タスクで大きな成功を収め、ある程度のコモンセンス推論能力を示している。
しかし、コモンセンスタスクでの彼らのパフォーマンスは、まだ人間のものとは程遠い。
予備的な試みとして,最大コモンセンス知識ベース(KB)であるConceptNetの構造化知識を活用することで,プレトレーニング済みモデルを常識推論で教える,シンプルかつ効果的な手法を提案する。
具体的には、KBにおける構造化知識により、様々な論理形式を構築し、コモンセンス論理的推論を必要とする複数の選択質問を生成することができる。
実験により,これらの学習例を改良すると,プレトレーニングされたモデルは,特に数ショットの学習環境において,常識的推論を必要とするタスクにおける性能を常に向上することが示された。
さらに、どの論理関係がコモンセンス推論とより関連があるかを理解するために分析を行う。
関連論文リスト
- Chain-of-Knowledge: Integrating Knowledge Reasoning into Large Language Models by Learning from Knowledge Graphs [55.317267269115845]
Chain-of-Knowledge (CoK)は知識推論のための包括的なフレームワークである。
CoKにはデータセット構築とモデル学習の両方のための方法論が含まれている。
KnowReasonで広範な実験を行う。
論文 参考訳(メタデータ) (2024-06-30T10:49:32Z) - Commonsense Knowledge Transfer for Pre-trained Language Models [83.01121484432801]
ニューラルコモンセンス知識モデルに格納されたコモンセンス知識を汎用的な事前学習言語モデルに転送するフレームワークであるコモンセンス知識伝達を導入する。
まず、一般的なテキストを利用して、ニューラルコモンセンス知識モデルからコモンセンス知識を抽出するクエリを形成する。
次に、コモンセンスマスクの埋め込みとコモンセンスの関係予測という2つの自己教師対象で言語モデルを洗練する。
論文 参考訳(メタデータ) (2023-06-04T15:44:51Z) - In-Context Analogical Reasoning with Pre-Trained Language Models [10.344428417489237]
我々は、AIシステムにおけるアナロジーを支援するために、直感的な言語ベースの抽象化の使用について検討する。
具体的には,大規模事前学習言語モデル(PLM)を視覚的Raven's Progressive Matrices(RPM)に適用する。
PLMはゼロショットリレーショナル推論に顕著な能力を示し、人間のパフォーマンスを超え、教師付き視覚ベースの手法に近づいた。
論文 参考訳(メタデータ) (2023-05-28T04:22:26Z) - ALERT: Adapting Language Models to Reasoning Tasks [43.8679673685468]
ALERTは、言語モデルの推論能力を評価するためのベンチマークと分析スイートである。
ALERTは、あらゆる言語モデルに対して、きめ細かい推論スキルを評価するためのテストベッドを提供する。
言語モデルは、事前学習状態と比較して、微調整段階の推論スキルを学習する。
論文 参考訳(メタデータ) (2022-12-16T05:15:41Z) - ArT: All-round Thinker for Unsupervised Commonsense Question-Answering [54.068032948300655]
本稿では,知識生成における関連性を完全に取り除き,オールラウンド思考者(ArT)のアプローチを提案する。
我々は、COPA、SocialIQA、SCTの3つの共通センスQAベンチマークで評価した。
論文 参考訳(メタデータ) (2021-12-26T18:06:44Z) - Does Pre-training Induce Systematic Inference? How Masked Language
Models Acquire Commonsense Knowledge [91.15301779076187]
プレトレーニング中のBERTモデルのミニバッチに言語知識を導入し、モデルがサポート対象の推論にどの程度うまく一般化するかを評価する。
一般化は事前学習の過程では改善せず, 帰納的, 体系的推論ではなく, 表面的, 共起的パターンからコモンセンス知識が獲得されることが示唆された。
論文 参考訳(メタデータ) (2021-12-16T03:13:04Z) - Generated Knowledge Prompting for Commonsense Reasoning [53.88983683513114]
本稿では,汎用的なプロンプト形式を用いて,言語モデルから直接知識文を生成することを提案する。
このアプローチは、4つのコモンセンス推論タスクにおいて、既製の言語モデルと微調整された言語モデルの両方のパフォーマンスを向上させる。
特に、モデルが生成した知識を使用することで、予測が改善できることが分かる。
論文 参考訳(メタデータ) (2021-10-15T21:58:03Z) - Leap-Of-Thought: Teaching Pre-Trained Models to Systematically Reason
Over Implicit Knowledge [96.92252296244233]
大規模な事前学習言語モデル(LM)は推論能力を得るが、制御は困難である。
本研究では,暗黙的,事前学習された知識と明示的な自然言語文を併用して,体系的推論を確実に行うことができることを示す。
我々の研究は、シンプルな自然言語文を追加することで、モデルを簡単に修正できるユーザと対話することで、常に改善されるオープンドメインシステムへの道を開く。
論文 参考訳(メタデータ) (2020-06-11T17:02:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。