論文の概要: Think about it! Improving defeasible reasoning by first modeling the
question scenario
- arxiv url: http://arxiv.org/abs/2110.12349v1
- Date: Sun, 24 Oct 2021 04:13:52 GMT
- ステータス: 処理完了
- システム内更新日: 2021-10-31 16:26:17.400217
- Title: Think about it! Improving defeasible reasoning by first modeling the
question scenario
- Title(参考訳): 考えてみろ!
質問シナリオのモデル化によるデファシブル推論の改善
- Authors: Aman Madaan, Niket Tandon, Dheeraj Rajagopal, Peter Clark, Yiming
Yang, Eduard Hovy
- Abstract要約: 決定可能な推論とは、新たな証拠を考慮して結論を覆すことができる推論の方法である。
私たちの研究目標は、デファシブルなクエリに答える前に、問題シナリオを想定することで、ニューラルモデルが同様にメリットを享受できるかどうかを問うことです。
我々のシステムであるCURIOUSは、3つの異なるデファシブル推論データセット上で新しい最先端の推論を実現する。
- 参考スコア(独自算出の注目度): 35.6110036360506
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Defeasible reasoning is the mode of reasoning where conclusions can be
overturned by taking into account new evidence. Existing cognitive science
literature on defeasible reasoning suggests that a person forms a mental model
of the problem scenario before answering questions. Our research goal asks
whether neural models can similarly benefit from envisioning the question
scenario before answering a defeasible query. Our approach is, given a
question, to have a model first create a graph of relevant influences, and then
leverage that graph as an additional input when answering the question. Our
system, CURIOUS, achieves a new state-of-the-art on three different defeasible
reasoning datasets. This result is significant as it illustrates that
performance can be improved by guiding a system to "think about" a question and
explicitly model the scenario, rather than answering reflexively. Code, data,
and pre-trained models are located at https://github.com/madaan/thinkaboutit.
- Abstract(参考訳): 矛盾する推論は、新しい証拠を考慮して結論を覆すことができる推論の方法である。
難解な推論に関する既存の認知科学文献は、質問に答える前に問題シナリオのメンタルモデルを形成することを示唆している。
私たちの研究目標は、デファシブルなクエリに答える前に、問題シナリオを想定することで、ニューラルモデルが同様にメリットを享受できるかどうかを問うことです。
我々のアプローチは、ある質問に対して、まずモデルに関連する影響のグラフを作成し、そのグラフを質問に答える際の追加入力として利用することである。
我々のシステムであるCURIOUSは、3つの異なるデファシブル推論データセット上で新しい最先端の推論を実現する。
この結果は、システムに対して、反射的に答えるのではなく、質問を"考え"、シナリオを明示的にモデル化するように指示することで、パフォーマンスが向上できることを示している。
コード、データ、事前学習されたモデルはhttps://github.com/madaan/thinkaboutitにある。
関連論文リスト
- Open-Set Knowledge-Based Visual Question Answering with Inference Paths [79.55742631375063]
知識に基づく視覚的質問回答(KB-VQA)の目的は、外部知識ベースの助けを借りて質問に対する正しい回答を提供することである。
KB-VQA, Graph pATH ranker (GATHER for brevity) の新しいレトリバーランカパラダイムを提案する。
具体的には、グラフの構築、プルーニング、パスレベルのランク付けが含まれており、正確な回答を検索するだけでなく、推論パスを提供して推論プロセスを説明する。
論文 参考訳(メタデータ) (2023-10-12T09:12:50Z) - RECKONING: Reasoning through Dynamic Knowledge Encoding [51.076603338764706]
言語モデルは、文脈の一部として提供される知識について推論することで、質問に答えることができることを示す。
これらの状況では、モデルは質問に答えるために必要な知識を区別することができない。
我々は、与えられた文脈知識をモデルのパラメータに折り畳み、より堅牢に推論するようにモデルに教えることを提案する。
論文 参考訳(メタデータ) (2023-05-10T17:54:51Z) - MetaLogic: Logical Reasoning Explanations with Fine-Grained Structure [129.8481568648651]
複雑な実生活シナリオにおけるモデルの論理的推論能力を調べるためのベンチマークを提案する。
推論のマルチホップ連鎖に基づいて、説明形式は3つの主成分を含む。
この新たな説明形式を用いて,現在のベストモデルの性能を評価した。
論文 参考訳(メタデータ) (2022-10-22T16:01:13Z) - Entailer: Answering Questions with Faithful and Truthful Chains of
Reasoning [26.715242799194908]
質問応答システムは、体系的な推論の連鎖を通して、その答えが自身の内的信念によってどのように示唆されるかを示す。
我々のアプローチは、トレーニングされた後方チェーンモデルで、回答仮説を含む一連の前提を生成することができ、モデル自体がそれらの前提を信じることを確認する検証器を組み合わせることです。
私たちの知る限りでは、これは多段階連鎖を生成できる最初のシステムであり、それは忠実であり(その答えは推論から従う)、真実である(連鎖はシステムの内部の信念を反映している)。
論文 参考訳(メタデータ) (2022-10-21T19:51:56Z) - PQA: Perceptual Question Answering [35.051664704756995]
知覚組織は、人間の視覚システムに関する数少ない確立された理論の1つである。
本稿では,2つの位置変化を提唱し,知覚的組織の研究を振り返る。
複雑な実画像ではなく、意図的に生成された合成データを調べる。
次に、人間の心理学からの洞察を借りて、知覚的組織を自己意識の問題とみなすエージェントを設計する。
論文 参考訳(メタデータ) (2021-04-08T08:06:21Z) - Answering Ambiguous Questions through Generative Evidence Fusion and
Round-Trip Prediction [46.38201136570501]
本稿では,複数の通路からの証拠を集約し,一つの回答や質問対の集合を適応的に予測するモデルを提案する。
我々のモデルはRefuelと呼ばれ、AmbigQAデータセット上で新しい最先端のパフォーマンスを実現し、NQ-OpenおよびTriviaQA上での競合性能を示す。
論文 参考訳(メタデータ) (2020-11-26T05:48:55Z) - Explain by Evidence: An Explainable Memory-based Neural Network for
Question Answering [41.73026155036886]
本稿では,エビデンスに基づくメモリネットワークアーキテクチャを提案する。
データセットを要約し、その決定を下すための証拠を抽出することを学ぶ。
本モデルは,2つの質問応答データセットの最先端性能を実現する。
論文 参考訳(メタデータ) (2020-11-05T21:18:21Z) - Neuro-Symbolic Visual Reasoning: Disentangling "Visual" from "Reasoning" [49.76230210108583]
本稿では,視覚的質問応答(VQA)の推論的側面をその知覚から分離し,評価する枠組みを提案する。
また,不完全な知覚においても,モデルが推論問題に答えられるような,新しいトップダウンキャリブレーション手法を提案する。
難易度の高いGQAデータセットでは、このフレームワークがよく知られたVQAモデル間の深い非絡み合いの比較に使用される。
論文 参考訳(メタデータ) (2020-06-20T08:48:29Z) - SQuINTing at VQA Models: Introspecting VQA Models with Sub-Questions [66.86887670416193]
現状のVQAモデルでは、知覚や推論の問題に答える上で同等の性能を持つが、一貫性の問題に悩まされていることを示す。
この欠点に対処するため、サブクエスト対応ネットワークチューニング(SQuINT)というアプローチを提案する。
我々は,SQuINTがモデル一貫性を5%向上し,VQAにおける推論問題の性能も改善し,注意マップも改善したことを示す。
論文 参考訳(メタデータ) (2020-01-20T01:02:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。