論文の概要: Using ConceptNet to Teach Common Sense to an Automated Theorem Prover
- arxiv url: http://arxiv.org/abs/1912.12957v1
- Date: Mon, 30 Dec 2019 15:13:53 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-17 02:32:56.641296
- Title: Using ConceptNet to Teach Common Sense to an Automated Theorem Prover
- Title(参考訳): ConceptNetを使ってCommon Senseを自動定理プローバーに教える
- Authors: Claudia Schon, Sophie Siebert, Frieder Stolzenburg
- Abstract要約: CoRgシステムは常識推論問題を解決するシステムである。
本稿では,知識グラフを背景知識として利用するさまざまな方法を提案する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The CoRg system is a system to solve commonsense reasoning problems. The core
of the CoRg system is the automated theorem prover Hyper that is fed with large
amounts of background knowledge. This background knowledge plays a crucial role
in solving commonsense reasoning problems. In this paper we present different
ways to use knowledge graphs as background knowledge and discuss challenges
that arise.
- Abstract(参考訳): CoRgシステムは常識推論問題を解決するシステムである。
CoRgシステムの中核は、大量の背景知識が供給される自動定理証明器Hyperである。
この背景知識は、常識推論問題を解決する上で重要な役割を果たす。
本稿では,知識グラフを背景知識として利用するさまざまな方法を提案する。
関連論文リスト
- Assessing the Robustness of Retrieval-Augmented Generation Systems in K-12 Educational Question Answering with Knowledge Discrepancies [41.49674849980441]
大規模言語モデルにおける教科書とパラメトリック知識の相違がRAGシステムの有効性を損なう可能性があることを示す。
実アプリケーションにおける知識の相違をシミュレートする質問応答データセットであるEduKDQAを提案する。
その結果,ほとんどのRAGシステムは,知識の相違に対処する上で,大幅な性能低下に悩まされていることがわかった。
論文 参考訳(メタデータ) (2024-12-12T06:38:40Z) - Learning by Applying: A General Framework for Mathematical Reasoning via
Enhancing Explicit Knowledge Learning [47.96987739801807]
本稿では,既存のモデル(バックボーン)を明示的な知識学習によって原則的に拡張する枠組みを提案する。
LeApでは,新しい問題知識表現パラダイムで知識学習を行う。
LeApはすべてのバックボーンのパフォーマンスを改善し、正確な知識を習得し、より解釈可能な推論プロセスを実現する。
論文 参考訳(メタデータ) (2023-02-11T15:15:41Z) - CIKQA: Learning Commonsense Inference with a Unified
Knowledge-in-the-loop QA Paradigm [120.98789964518562]
我々は,コモンセンス知識の大規模化により,すべてのコモンセンスをカバーできるような,各タスクに十分なトレーニングセットをアノテートすることは不可能である,と論じる。
モデルのコモンセンス推論能力について,2つの観点から検討する。
我々は、このベンチマークを知識-イン-ループ質問回答(CIKQA)を用いたCommonsense Inferenceと命名した。
論文 参考訳(メタデータ) (2022-10-12T14:32:39Z) - Modularized Transfer Learning with Multiple Knowledge Graphs for
Zero-shot Commonsense Reasoning [22.443211209959497]
ゼロショットQAシステムは、コモンセンス知識グラフ(KG)をモデルトレーニングのための合成QAフォームサンプルに変換する。
本稿では,異なる種類のコモンセンスKGを考慮し,ゼロショット転送学習シナリオを複数ソース設定に拡張することを目的とする。
本稿では,知識集約のモジュラー版を開発することにより,異なる知識ソース間の干渉による知識の喪失を軽減することを提案する。
論文 参考訳(メタデータ) (2022-06-08T07:36:31Z) - Contextualized Knowledge-aware Attentive Neural Network: Enhancing
Answer Selection with Knowledge [77.77684299758494]
ナレッジグラフ(KG)による外部知識による回答選択モデル向上のアプローチを幅広く検討しています。
まず、KGの外部知識とテキスト情報との密接な相互作用を考慮し、QA文表現を学習するコンテキスト知識相互作用学習フレームワークであるナレッジアウェアニューラルネットワーク(KNN)を紹介します。
KG情報の多様性と複雑性に対処するために, カスタマイズされたグラフ畳み込みネットワーク (GCN) を介して構造情報を用いた知識表現学習を改善し, コンテキストベースおよび知識ベースの文表現を総合的に学習する コンテキスト型知識認識型アテンシブニューラルネットワーク (CKANN) を提案する。
論文 参考訳(メタデータ) (2021-04-12T05:52:20Z) - KRISP: Integrating Implicit and Symbolic Knowledge for Open-Domain
Knowledge-Based VQA [107.7091094498848]
VQAの最も難しい質問の1つは、質問に答えるために画像に存在しない外部の知識を必要とする場合です。
本研究では,解答に必要な知識が与えられたり記入されたりしないオープンドメイン知識を,トレーニング時やテスト時にも検討する。
知識表現と推論には2つのタイプがあります。
まず、トランスベースのモデルで教師なし言語事前トレーニングと教師付きトレーニングデータから効果的に学ぶことができる暗黙的な知識。
論文 参考訳(メタデータ) (2020-12-20T20:13:02Z) - KompaRe: A Knowledge Graph Comparative Reasoning System [85.72488258453926]
本稿では,複数の手がかりに対する共通点と矛盾点の推測を目的とした知識グラフの比較推論を提案する。
我々は,大規模な知識グラフに対して比較推論機能を提供する,最初のプロトタイプシステムであるKompaReを開発した。
論文 参考訳(メタデータ) (2020-11-06T04:57:37Z) - Connecting the Dots: A Knowledgeable Path Generator for Commonsense
Question Answering [50.72473345911147]
本稿では、一般的な共通センスQAフレームワークを、知識のあるパスジェネレータで拡張する。
KGの既存のパスを最先端の言語モデルで外挿することで、ジェネレータはテキスト内のエンティティのペアを動的で、潜在的に新しいマルチホップリレーショナルパスに接続することを学びます。
論文 参考訳(メタデータ) (2020-05-02T03:53:21Z) - Consciousness and Automated Reasoning [0.0]
本稿では,一階述語論理推論システムと大きな知識ベースの組み合わせを人工意識システムとして理解する方法について述べる。
このようなシステムは意識的なマインドキャッシングをうまく行うことができることを実証する。
論文 参考訳(メタデータ) (2020-01-26T11:43:48Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。