論文の概要: RETINAQA : A Knowledge Base Question Answering Model Robust to both Answerable and Unanswerable Questions
- arxiv url: http://arxiv.org/abs/2403.10849v1
- Date: Sat, 16 Mar 2024 08:08:20 GMT
- ステータス: 処理完了
- システム内更新日: 2024-03-19 21:25:31.295619
- Title: RETINAQA : A Knowledge Base Question Answering Model Robust to both Answerable and Unanswerable Questions
- Title(参考訳): 知識ベース質問応答モデルRETINAQA
- Authors: Prayushi Faldu, Indrajit Bhattacharya, Mausam,
- Abstract要約: 最先端のKBQAモデルは質問の回答可能性を想定している。
未解決のすべてのカテゴリを扱えるモデルはありません。
本稿では KBQA の新しいモデル RetinaQA を提案する。
- 参考スコア(独自算出の注目度): 23.73807255464977
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: State-of-the-art KBQA models assume answerability of questions. Recent research has shown that while these can be adapted to detect unaswerability with suitable training and thresholding, this comes at the expense of accuracy for answerable questions, and no single model is able to handle all categories of unanswerability. We propose a new model for KBQA named RetinaQA that is robust against unaswerability. It complements KB-traversal based logical form retrieval with sketch-filling based logical form construction. This helps with questions that have valid logical forms but no data paths in the KB leading to an answer. Additionally, it uses discrimination instead of generation to better identify questions that do not have valid logical forms. We demonstrate that RetinaQA significantly outperforms adaptations of state-of-the-art KBQA models across answerable and unanswerable questions, while showing robustness across unanswerability categories. Remarkably, it also establishes a new state-of-the art for answerable KBQA by surpassing existing models
- Abstract(参考訳): 最先端のKBQAモデルは質問の回答可能性を想定している。
近年の研究では、これらは適切なトレーニングやしきい値の設定によって不解性を検出することができるが、これは答え可能な質問の正確さを犠牲にしており、不解性のすべてのカテゴリを単一のモデルで処理できないことが示されている。
本稿では KBQA の新しいモデル RetinaQA を提案する。
KB-traversalベースの論理形式検索とスケッチフィリングベースの論理形式構築を補完する。
これは有効な論理形式を持つが、KB内のデータパスが解答に繋がらない質問に役立ちます。
さらに、ジェネレーションの代わりに差別を使用して、有効な論理形式を持たない質問をよりよく識別する。
RetinaQAは、解答不可能な質問にまたがって最先端KBQAモデルの適応を著しく上回り、解答不可能なカテゴリ間で堅牢性を示す。
注目すべきは、既存のモデルを超えることで、回答可能なKBQAのための新しい最先端技術を確立することだ。
関連論文リスト
- MarkQA: A large scale KBQA dataset with numerical reasoning [11.072552105311484]
本稿では,マルチホップ推論と数値推論の両方を実行する機能を必要とする新しいタスクNR-KBQAを提案する。
PyQLと呼ばれるPython形式で論理形式を設計し、数値推論問題の推論プロセスを表現する。
我々は、小さな種子から自動的に構築されるMarkQAと呼ばれる大規模なデータセットを提示する。
論文 参考訳(メタデータ) (2023-10-24T04:50:59Z) - Open-Set Knowledge-Based Visual Question Answering with Inference Paths [79.55742631375063]
知識に基づく視覚的質問回答(KB-VQA)の目的は、外部知識ベースの助けを借りて質問に対する正しい回答を提供することである。
KB-VQA, Graph pATH ranker (GATHER for brevity) の新しいレトリバーランカパラダイムを提案する。
具体的には、グラフの構築、プルーニング、パスレベルのランク付けが含まれており、正確な回答を検索するだけでなく、推論パスを提供して推論プロセスを説明する。
論文 参考訳(メタデータ) (2023-10-12T09:12:50Z) - Do I have the Knowledge to Answer? Investigating Answerability of
Knowledge Base Questions [25.13991044303459]
GrailQAbilityは、未解決のKBQAデータセットである。
3つの最先端KBQAモデルを用いて実験したところ、3つのモデル全てが性能低下に悩まされていることがわかった。
このことはKBQAシステムを解答不能に堅牢にするためのさらなる研究の必要性を浮き彫りにしている。
論文 参考訳(メタデータ) (2022-12-20T12:00:26Z) - Knowledge Base Question Answering by Case-based Reasoning over Subgraphs [81.22050011503933]
本モデルでは,既存のKG補完アルゴリズムよりも複雑な推論パターンを必要とする問合せに対して,より効果的に答えることを示す。
提案モデルは、KBQAベンチマークの最先端モデルよりも優れているか、競合的に動作する。
論文 参考訳(メタデータ) (2022-02-22T01:34:35Z) - Injecting Numerical Reasoning Skills into Knowledge Base Question
Answering Models [19.964729281684363]
本稿では,数値推論を考慮した埋め込み型KBQAフレームワークを提案する。
我々は,NT-NSMを作成するために,最先端の埋め込み型KBQAモデルであるNSM上の数値トランスフォーマーを提案する。
KBQAベンチマークの実験では、NT-NSMには数値推論スキルが備わっており、通常の制約された質問に答える際のベースラインを大幅に上回っていることが示されている。
論文 参考訳(メタデータ) (2021-12-12T01:30:29Z) - Logically Consistent Loss for Visual Question Answering [66.83963844316561]
ニューラルネットワークに基づく視覚質問応答(VQA)の現在の進歩は、同じ分布(すなわち、d)の仮定による一貫性を保証することができない。
マルチタスク学習フレームワークにおける論理的一貫した損失を定式化することにより,この問題に対処するための新しいモデルに依存しない論理制約を提案する。
実験により、提案された損失公式とハイブリッドバッチの導入により、一貫性が向上し、性能が向上することを確認した。
論文 参考訳(メタデータ) (2020-11-19T20:31:05Z) - Template-Based Question Generation from Retrieved Sentences for Improved
Unsupervised Question Answering [98.48363619128108]
擬似学習データを用いてQAモデルを訓練するための教師なしアプローチを提案する。
関連した検索文に簡単なテンプレートを適用してQA学習のための質問を生成すると、元の文脈文よりも、下流QAのパフォーマンスが向上することを示す。
論文 参考訳(メタデータ) (2020-04-24T17:57:45Z) - Faithful Embeddings for Knowledge Base Queries [97.5904298152163]
理想的知識ベース(KB)の帰納的閉包は、KBが答えられる論理的クエリを正確に含んでいる。
実際にはKBは不完全かつ過剰な仕様であり、現実の答えを持つクエリには答えられない。
この新たなQEモジュールをニューラルな質問応答システムに挿入すると、最先端技術よりも大幅に改善されることを示す。
論文 参考訳(メタデータ) (2020-04-07T19:25:16Z) - SQuINTing at VQA Models: Introspecting VQA Models with Sub-Questions [66.86887670416193]
現状のVQAモデルでは、知覚や推論の問題に答える上で同等の性能を持つが、一貫性の問題に悩まされていることを示す。
この欠点に対処するため、サブクエスト対応ネットワークチューニング(SQuINT)というアプローチを提案する。
我々は,SQuINTがモデル一貫性を5%向上し,VQAにおける推論問題の性能も改善し,注意マップも改善したことを示す。
論文 参考訳(メタデータ) (2020-01-20T01:02:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。