論文の概要: Complex Reasoning over Logical Queries on Commonsense Knowledge Graphs
- arxiv url: http://arxiv.org/abs/2403.07398v1
- Date: Tue, 12 Mar 2024 08:13:52 GMT
- ステータス: 処理完了
- システム内更新日: 2024-03-13 22:35:30.737338
- Title: Complex Reasoning over Logical Queries on Commonsense Knowledge Graphs
- Title(参考訳): Commonsenseナレッジグラフによる論理的クエリの複雑な推論
- Authors: Tianqing Fang, Zeming Chen, Yangqiu Song, Antoine Bosselut
- Abstract要約: 論理クエリをサンプリングして作成した新しいデータセットであるCOM2(COMplex COMmonsense)を提示する。
我々は、手書きのルールと大きな言語モデルを用いて、複数の選択とテキスト生成の質問に言語化します。
COM2でトレーニングされた言語モデルでは、複雑な推論能力が大幅に改善されている。
- 参考スコア(独自算出の注目度): 67.50874041220371
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Event commonsense reasoning requires the ability to reason about the
relationship between events, as well as infer implicit context underlying that
relationship. However, data scarcity makes it challenging for language models
to learn to generate commonsense inferences for contexts and questions
involving interactions between complex events. To address this demand, we
present COM2 (COMplex COMmonsense), a new dataset created by sampling multi-hop
logical queries (e.g., the joint effect or cause of both event A and B, or the
effect of the effect of event C) from an existing commonsense knowledge graph
(CSKG), and verbalizing them using handcrafted rules and large language models
into multiple-choice and text generation questions. Our experiments show that
language models trained on COM2 exhibit significant improvements in complex
reasoning ability, resulting in enhanced zero-shot performance in both
in-domain and out-of-domain tasks for question answering and generative
commonsense reasoning, without expensive human annotations.
- Abstract(参考訳): イベントコモンセンス推論には、イベント間の関係を推論する機能と、その関係の基礎となる暗黙のコンテキストを推論する必要がある。
しかし、データ不足は、言語モデルが複雑なイベント間の相互作用に関わるコンテキストや質問に対して共通意味推論を生成することを学ぶのを難しくする。
この要求に対処するために、COM2(Complex COMmonsense)という、既存のコモンセンス知識グラフ(CSKG)からマルチホップ論理クエリ(例えば、イベントAとBの結合効果や、イベントCの効果)をサンプリングし、手書きのルールと大きな言語モデルを用いて言語化して、複数選択とテキスト生成の質問を合成する新しいデータセットを提示する。
実験の結果,COM2で訓練した言語モデルでは複雑な推論能力が向上し,ドメイン内タスクとドメイン外タスクのゼロショット性能が向上することがわかった。
関連論文リスト
- Modeling Hierarchical Reasoning Chains by Linking Discourse Units and
Key Phrases for Reading Comprehension [80.99865844249106]
本稿では,論理的推論の基盤として,対話レベルと単語レベルの両方の文脈を扱う総合グラフネットワーク(HGN)を提案する。
具体的には、ノードレベルの関係とタイプレベルの関係は、推論過程におけるブリッジと解釈できるが、階層的な相互作用機構によってモデル化される。
論文 参考訳(メタデータ) (2023-06-21T07:34:27Z) - DiPlomat: A Dialogue Dataset for Situated Pragmatic Reasoning [89.92601337474954]
プラグマティック推論は、実生活における会話でしばしば起こる暗黙の意味を解読する上で重要な役割を担っている。
そこで我々は,現実的な推論と会話理解の場所に関するマシンの能力のベンチマークを目的とした,新しい挑戦であるDiPlomatを紹介した。
論文 参考訳(メタデータ) (2023-06-15T10:41:23Z) - Cross-Modal Causal Relational Reasoning for Event-Level Visual Question
Answering [134.91774666260338]
既存の視覚的質問応答法は、しばしばクロスモーダルなスプリアス相関と過度に単純化されたイベントレベルの推論プロセスに悩まされる。
本稿では,イベントレベルの視覚的質問応答の課題に対処するために,モーダルな因果関係推論のためのフレームワークを提案する。
論文 参考訳(メタデータ) (2022-07-26T04:25:54Z) - EA$^2$E: Improving Consistency with Event Awareness for Document-Level
Argument Extraction [52.43978926985928]
本稿では、トレーニングと推論のための拡張コンテキストを備えたイベント・アウェア・引数抽出(EA$2$E)モデルを紹介する。
WIKIEVENTSとACE2005データセットの実験結果から,EA$2$Eの有効性が示された。
論文 参考訳(メタデータ) (2022-05-30T04:33:51Z) - elBERto: Self-supervised Commonsense Learning for Question Answering [131.51059870970616]
本稿では、市販QAモデルアーキテクチャと互換性のあるコモンセンスフレームワークの自己教師型双方向表現学習を提案する。
このフレームワークは5つの自己教師型タスクから構成されており、リッチコモンセンスを含むコンテキストから追加のトレーニング信号を完全に活用するようモデルに強制する。
elBERtoは、単純な語彙的類似性比較が役に立たないような、アウト・オブ・パラグラフや非エフェクトな問題に対して、大幅に改善されている。
論文 参考訳(メタデータ) (2022-03-17T16:23:45Z) - iReason: Multimodal Commonsense Reasoning using Videos and Natural
Language with Interpretability [0.0]
因果的知識は、堅牢なAIシステムを構築する上で不可欠である。
iReasonは、ビデオと自然言語のキャプションの両方を用いて、視覚意味のコモンセンス知識を推論するフレームワークである。
論文 参考訳(メタデータ) (2021-06-25T02:56:34Z) - CIDER: Commonsense Inference for Dialogue Explanation and Reasoning [31.354769524093125]
CIDER — 手動でキュレートされたデータセット — には、コモンセンス推論を用いて推論される暗黙的かつ明示的な知識三つ子という形で、ダイアディックな対話の説明が含まれている。
本データセットでは,対話レベル自然言語推論,スパン抽出,複数選択選択という3つのタスクを設定した。
トランスフォーマーモデルを用いて得られた結果は、これらのタスクが困難であることを明らかにし、将来の有望な研究の道を開く。
論文 参考訳(メタデータ) (2021-06-01T14:14:46Z) - Causal BERT : Language models for causality detection between events
expressed in text [1.0756038762528868]
イベント間の因果関係の理解は、ヘルスケア、ビジネスリスク管理、財務など、多くの分野で役立ちます。
自然言語イベント間の「因果関係」は、暗黙的に表現されることが多いため、単に挑戦を続ける。
提案手法は3つの異なるデータ分布において最先端の性能を達成し,因果図の抽出に利用できる。
論文 参考訳(メタデータ) (2020-12-10T04:59:12Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。