論文の概要: Fact-driven Logical Reasoning for Machine Reading Comprehension
- arxiv url: http://arxiv.org/abs/2105.10334v2
- Date: Fri, 26 May 2023 05:42:15 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-30 00:45:43.792920
- Title: Fact-driven Logical Reasoning for Machine Reading Comprehension
- Title(参考訳): 機械読解のためのファクト駆動論理推論
- Authors: Siru Ouyang, Zhuosheng Zhang and Hai Zhao
- Abstract要約: 私たちは、常識と一時的な知識のヒントの両方を階層的にカバーする動機があります。
具体的には,文の背骨成分を抽出し,知識単位の一般的な定式化を提案する。
次に、事実単位の上にスーパーグラフを構築し、文レベル(事実群間の関係)と実体レベルの相互作用の利点を享受する。
- 参考スコア(独自算出の注目度): 82.58857437343974
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Recent years have witnessed an increasing interest in training machines with
reasoning ability, which deeply relies on accurately and clearly presented clue
forms. The clues are usually modeled as entity-aware knowledge in existing
studies. However, those entity-aware clues are primarily focused on
commonsense, making them insufficient for tasks that require knowledge of
temporary facts or events, particularly in logical reasoning for reading
comprehension. To address this challenge, we are motivated to cover both
commonsense and temporary knowledge clues hierarchically. Specifically, we
propose a general formalism of knowledge units by extracting backbone
constituents of the sentence, such as the subject-verb-object formed ``facts''.
We then construct a supergraph on top of the fact units, allowing for the
benefit of sentence-level (relations among fact groups) and entity-level
interactions (concepts or actions inside a fact). Experimental results on
logical reasoning benchmarks and dialogue modeling datasets show that our
approach improves the baselines substantially, and it is general across
backbone models. Code is available at
\url{https://github.com/ozyyshr/FocalReasoner}.
- Abstract(参考訳): 近年、推論能力を持つ訓練機械への関心が高まっており、それは正確ではっきりと示される手がかり形式に大きく依存している。
手がかりは通常、既存の研究においてエンティティ認識の知識としてモデル化される。
しかし、これらエンティティを意識した手がかりは、主にコモンセンスに焦点を当てており、一時的な事実や出来事の知識を必要とするタスク、特に読解の論理的推論には不十分である。
この課題に対処するために、私たちは常識と一時的な知識の手がかりを階層的にカバーする動機があります。
具体的には,「事実」と呼ばれる主目的語などの文のバックボーン成分を抽出し,知識単位の一般的な形式化を提案する。
次に、ファクトユニットの上にスーパーグラフを構築し、文レベルのメリット(ファクトグループ間の関係)とエンティティレベルのインタラクション(ファクト内の概念やアクション)を可能にします。
論理的推論ベンチマークと対話モデルデータセットによる実験結果から,本手法はベースラインを大幅に改善し,バックボーンモデルにまたがる一般性を示す。
コードは \url{https://github.com/ozyyshr/focalreasoner} で入手できる。
関連論文リスト
- SOK-Bench: A Situated Video Reasoning Benchmark with Aligned Open-World Knowledge [60.76719375410635]
44Kの質問と10Kの状況からなる新しいベンチマーク(SOK-Bench)を提案する。
推論プロセスは、位置する知識と問題解決のための一般的な知識を理解し、適用するために必要である。
質問応答ペアと推論プロセスを生成し,最後に品質保証に関する手作業によるレビューを行った。
論文 参考訳(メタデータ) (2024-05-15T21:55:31Z) - EventGround: Narrative Reasoning by Grounding to Eventuality-centric Knowledge Graphs [41.928535719157054]
本研究では,事象中心の知識グラフに自由文を接地する問題に対処するため,EventGroundと呼ばれる初期包括的フレームワークを提案する。
これらの問題に対処するために、単純で効果的な解析と部分的な情報抽出方法を提案する。
基礎知識を取り入れた我々の枠組みは、解釈可能な証拠を提供しながら最先端のパフォーマンスを達成する。
論文 参考訳(メタデータ) (2024-03-30T01:16:37Z) - An Overview Of Temporal Commonsense Reasoning and Acquisition [20.108317515225504]
時間的コモンセンス推論(英: Temporal Commonsense reasoning)とは、フレーズ、行動、出来事の典型的な時間的文脈を理解する能力である。
大規模言語モデルの性能に関する最近の研究は、しばしば推論においてショートカットを行い、単純な言語トラップに陥ることが示唆されている。
論文 参考訳(メタデータ) (2023-07-28T01:30:15Z) - Object Topological Character Acquisition by Inductive Learning [0.0]
本稿では, 対象の骨格(RTS)に基づく地形構造の形式的表現を提案し, 「共通地盤の探索」 の誘導過程を実現する。
オブジェクト認識の実装は、色、縁、テクスチャなどの単純な物理的特徴ではなく、トポロジのような共通の幾何学に基づいていることは明らかである。
論文 参考訳(メタデータ) (2023-06-19T01:19:37Z) - RECKONING: Reasoning through Dynamic Knowledge Encoding [51.076603338764706]
言語モデルは、文脈の一部として提供される知識について推論することで、質問に答えることができることを示す。
これらの状況では、モデルは質問に答えるために必要な知識を区別することができない。
我々は、与えられた文脈知識をモデルのパラメータに折り畳み、より堅牢に推論するようにモデルに教えることを提案する。
論文 参考訳(メタデータ) (2023-05-10T17:54:51Z) - MetaLogic: Logical Reasoning Explanations with Fine-Grained Structure [129.8481568648651]
複雑な実生活シナリオにおけるモデルの論理的推論能力を調べるためのベンチマークを提案する。
推論のマルチホップ連鎖に基づいて、説明形式は3つの主成分を含む。
この新たな説明形式を用いて,現在のベストモデルの性能を評価した。
論文 参考訳(メタデータ) (2022-10-22T16:01:13Z) - Generated Knowledge Prompting for Commonsense Reasoning [53.88983683513114]
本稿では,汎用的なプロンプト形式を用いて,言語モデルから直接知識文を生成することを提案する。
このアプローチは、4つのコモンセンス推論タスクにおいて、既製の言語モデルと微調整された言語モデルの両方のパフォーマンスを向上させる。
特に、モデルが生成した知識を使用することで、予測が改善できることが分かる。
論文 参考訳(メタデータ) (2021-10-15T21:58:03Z) - A Knowledge-Enhanced Pretraining Model for Commonsense Story Generation [98.25464306634758]
本稿では,外部知識ベースからのコモンセンス知識を利用して,合理的なストーリーを生成することを提案する。
我々は,真と偽のストーリーを識別するための差別的目的を組み合わせたマルチタスク学習を採用している。
我々のモデルは、特に論理学とグローバルコヒーレンスの観点から、最先端のベースラインよりも合理的なストーリーを生成することができる。
論文 参考訳(メタデータ) (2020-01-15T05:42:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。