論文の概要: UFO: Unified Fact Obtaining for Commonsense Question Answering
- arxiv url: http://arxiv.org/abs/2305.16048v1
- Date: Thu, 25 May 2023 13:25:49 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-26 14:59:21.209391
- Title: UFO: Unified Fact Obtaining for Commonsense Question Answering
- Title(参考訳): ufo:コモンセンス質問応答のための統一事実獲得
- Authors: Zhifeng Li and Yifan Fan and Bowei Zou and Yu Hong
- Abstract要約: 大規模言語モデル(LLM)は、知識の獲得と活用において、インテリジェンスを大幅に改善した。
UFO(Unified Facts Obtaining)アプローチを提案する。
UFOはLLMを知識ソースに変換し、与えられた質問に対して関連する事実(知識ステートメント)を生成する。
- 参考スコア(独自算出の注目度): 11.537283115693432
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Leveraging external knowledge to enhance the reasoning ability is crucial for
commonsense question answering. However, the existing knowledge bases heavily
rely on manual annotation which unavoidably causes deficiency in coverage of
world-wide commonsense knowledge. Accordingly, the knowledge bases fail to be
flexible enough to support the reasoning over diverse questions. Recently,
large-scale language models (LLMs) have dramatically improved the intelligence
in capturing and leveraging knowledge, which opens up a new way to address the
issue of eliciting knowledge from language models. We propose a Unified Facts
Obtaining (UFO) approach. UFO turns LLMs into knowledge sources and produces
relevant facts (knowledge statements) for the given question. We first develop
a unified prompt consisting of demonstrations that cover different aspects of
commonsense and different question styles. On this basis, we instruct the LLMs
to generate question-related supporting facts for various commonsense questions
via prompting. After facts generation, we apply a dense retrieval-based fact
selection strategy to choose the best-matched fact. This kind of facts will be
fed into the answer inference model along with the question. Notably, due to
the design of unified prompts, UFO can support reasoning in various commonsense
aspects (including general commonsense, scientific commonsense, and social
commonsense). Extensive experiments on CommonsenseQA 2.0, OpenBookQA, QASC, and
Social IQA benchmarks show that UFO significantly improves the performance of
the inference model and outperforms manually constructed knowledge sources.
- Abstract(参考訳): 推論能力を高めるために外部知識を活用することは、常識的な質問応答に不可欠である。
しかし、既存の知識基盤は、必然的に世界規模の常識知識をカバーできない手動アノテーションに大きく依存している。
したがって、知識ベースは多様な質問に対する推論をサポートするのに十分な柔軟性を持っていない。
近年,大規模言語モデル (LLM) は,知識の獲得と活用の知能を劇的に向上させ,言語モデルから知識を引き出すという問題に対処する新たな方法を生み出している。
我々は、ufo(unified facts obtained)アプローチを提案する。
UFOはLLMを知識ソースに変換し、与えられた質問に対して関連する事実(知識ステートメント)を生成する。
まず,コモンセンスと異なる質問スタイルの異なる側面を包含するデモからなる統一的なプロンプトを開発する。
そこで我々は,LLMに対して,様々なコモンセンス質問に対する質問関連支援事実をプロンプトを介して生成するように指示した。
事実生成後、最も適合した事実を選択するために、厳密な検索に基づく事実選択戦略を適用する。
この種の事実は、質問とともに、回答推論モデルに反映されます。
特に、統一的なプロンプトの設計により、UFOは一般的なコモンセンス、科学コモンセンス、社会コモンセンスを含む様々なコモンセンスの推論をサポートすることができる。
CommonsenseQA 2.0、OpenBookQA、QASC、Social IQAベンチマークの大規模な実験により、UFOは推論モデルの性能を大幅に改善し、手作業で構築した知識源よりも優れていた。
関連論文リスト
- SOK-Bench: A Situated Video Reasoning Benchmark with Aligned Open-World Knowledge [60.76719375410635]
44Kの質問と10Kの状況からなる新しいベンチマーク(SOK-Bench)を提案する。
推論プロセスは、位置する知識と問題解決のための一般的な知識を理解し、適用するために必要である。
質問応答ペアと推論プロセスを生成し,最後に品質保証に関する手作業によるレビューを行った。
論文 参考訳(メタデータ) (2024-05-15T21:55:31Z) - Untangle the KNOT: Interweaving Conflicting Knowledge and Reasoning Skills in Large Language Models [51.72963030032491]
大規模言語モデル(LLM)の知識文書は、時代遅れや誤った知識のためにLLMの記憶と矛盾する可能性がある。
我々は,知識紛争解決のための新しいデータセットKNOTを構築した。
論文 参考訳(メタデータ) (2024-04-04T16:40:11Z) - Prophet: Prompting Large Language Models with Complementary Answer
Heuristics for Knowledge-based Visual Question Answering [30.858737348472626]
知識に基づく視覚的質問応答(VQA)は、質問に答えるために、画像以外の外部知識を必要とする。
近年の研究では,暗黙の知識エンジンとして強力な大規模言語モデル (LLM) を用いることで,回答に必要な知識を獲得している。
本稿では,知識に基づくVQAの解答をLCMに促すための,概念的にシンプルで柔軟な,汎用的なフレームワークを提案する。
論文 参考訳(メタデータ) (2023-03-03T13:05:15Z) - DisentQA: Disentangling Parametric and Contextual Knowledge with
Counterfactual Question Answering [34.70206857546496]
質問応答モデルは通常、推論時間中に「知識」の2つのソースにアクセスする。
答えが与えられた非パラメトリック知識に由来するかどうかは不明である。
本稿では,2つの知識源を解き放つために,QAモデルを訓練する新たなパラダイムを提案する。
論文 参考訳(メタデータ) (2022-11-10T15:34:44Z) - CIKQA: Learning Commonsense Inference with a Unified
Knowledge-in-the-loop QA Paradigm [120.98789964518562]
我々は,コモンセンス知識の大規模化により,すべてのコモンセンスをカバーできるような,各タスクに十分なトレーニングセットをアノテートすることは不可能である,と論じる。
モデルのコモンセンス推論能力について,2つの観点から検討する。
我々は、このベンチマークを知識-イン-ループ質問回答(CIKQA)を用いたCommonsense Inferenceと命名した。
論文 参考訳(メタデータ) (2022-10-12T14:32:39Z) - A Unified End-to-End Retriever-Reader Framework for Knowledge-based VQA [67.75989848202343]
本稿では,知識に基づくVQAに向けて,エンド・ツー・エンドのレトリバー・リーダー・フレームワークを提案する。
我々は、視覚言語による事前学習モデルからの多モーダルな暗黙の知識に光を当て、知識推論の可能性を掘り下げた。
提案手法では,知識検索のガイダンスを提供するだけでなく,質問応答に対してエラーが発生しやすいケースも排除できる。
論文 参考訳(メタデータ) (2022-06-30T02:35:04Z) - Enhancing Question Generation with Commonsense Knowledge [33.289599417096206]
質問生成プロセスにコモンセンス知識を導入するためのマルチタスク学習フレームワークを提案する。
SQuAD実験の結果,提案手法は自動評価と人的評価の両方でQG性能を著しく向上させることができることがわかった。
論文 参考訳(メタデータ) (2021-06-19T08:58:13Z) - Multi-Modal Answer Validation for Knowledge-Based VQA [44.80209704315099]
外部知識を用いたマルチモーダル回答検証(MAVEx)を提案する。
アイデアは、答え固有の知識検索に基づいて有望な回答候補のセットを検証することです。
難解な知識に基づくVQAデータセットであるOK-VQAを用いた実験により、MAVExが新しい最先端の結果を得ることを示す。
論文 参考訳(メタデータ) (2021-03-23T00:49:36Z) - Incremental Knowledge Based Question Answering [52.041815783025186]
人間と同じように学習能力を段階的に拡張できるインクリメンタルKBQA学習フレームワークを提案します。
具体的には、破滅的な忘れ問題を克服するために、マージン希釈損失と協調選択方法からなる。
包括的な実験は、進化する知識ベースに取り組む際にその効果と効率を示す。
論文 参考訳(メタデータ) (2021-01-18T09:03:38Z) - KRISP: Integrating Implicit and Symbolic Knowledge for Open-Domain
Knowledge-Based VQA [107.7091094498848]
VQAの最も難しい質問の1つは、質問に答えるために画像に存在しない外部の知識を必要とする場合です。
本研究では,解答に必要な知識が与えられたり記入されたりしないオープンドメイン知識を,トレーニング時やテスト時にも検討する。
知識表現と推論には2つのタイプがあります。
まず、トランスベースのモデルで教師なし言語事前トレーニングと教師付きトレーニングデータから効果的に学ぶことができる暗黙的な知識。
論文 参考訳(メタデータ) (2020-12-20T20:13:02Z) - Question Answering over Knowledge Base using Language Model Embeddings [0.0]
本稿では,知識ベース質問回答タスクにおける事前学習言語モデルの利用に焦点を当てる。
さらに,これらの埋め込みを知識ベースから質問まで,双方向の注意機構で微調整した。
提案手法は,質問事項を表現するためのマルチヘッドアテンション機構を備えた,単純な畳み込みニューラルネットワークアーキテクチャに基づいている。
論文 参考訳(メタデータ) (2020-10-17T22:59:34Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。