論文の概要: Geographic Question Answering: Challenges, Uniqueness, Classification,
and Future Directions
- arxiv url: http://arxiv.org/abs/2105.09392v1
- Date: Wed, 19 May 2021 20:47:36 GMT
- ステータス: 処理完了
- システム内更新日: 2021-05-22 00:46:10.235824
- Title: Geographic Question Answering: Challenges, Uniqueness, Classification,
and Future Directions
- Title(参考訳): 地理質問応答 : 挑戦,特異性,分類,今後の方向性
- Authors: Gengchen Mai, Krzysztof Janowicz, Rui Zhu, Ling Cai, and Ni Lao
- Abstract要約: 質問回答(QA)は、自然言語で表現された質問に対する回答を生成することを目的としている。
QAシステムはまだ、地理的実体や概念に関わる質問に答えるのに苦労しています。
- 参考スコア(独自算出の注目度): 10.21626173269271
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: As an important part of Artificial Intelligence (AI), Question Answering (QA)
aims at generating answers to questions phrased in natural language. While
there has been substantial progress in open-domain question answering, QA
systems are still struggling to answer questions which involve geographic
entities or concepts and that require spatial operations. In this paper, we
discuss the problem of geographic question answering (GeoQA). We first
investigate the reasons why geographic questions are difficult to answer by
analyzing challenges of geographic questions. We discuss the uniqueness of
geographic questions compared to general QA. Then we review existing work on
GeoQA and classify them by the types of questions they can address. Based on
this survey, we provide a generic classification framework for geographic
questions. Finally, we conclude our work by pointing out unique future research
directions for GeoQA.
- Abstract(参考訳): 人工知能(AI)の重要な部分として、質問回答(QA)は自然言語で表現された質問に対する回答を生成することを目的としている。
オープンドメインの質問応答にはかなりの進歩があったが、QAシステムは地理的実体や概念、空間的な操作を必要とする疑問に答えようと苦戦している。
本稿では,地理質問応答(GeoQA)の問題について議論する。
まず,地理的質問の課題を分析して,地理的質問の答えが難しい理由を検討する。
地理的質問の独特性を一般のQAと比較する。
次に、GeoQAに関する既存の研究をレビューし、それらに対処できる質問の種類によって分類する。
本調査に基づき,地理的質問に対する一般的な分類フレームワークを提供する。
最後に,GeoQAの今後の独自の研究方向性を指摘することで,研究を締めくくっている。
関連論文リスト
- Temporal Knowledge Graph Question Answering: A Survey [39.40384139630724]
時間的知識グラフ質問回答(TKGQA)は、時間的疑問に答える新しい課題である。
本稿では、時間的質問の分類と、TKGQAの方法論的分類の2つの観点から、徹底的な調査を行う。
論文 参考訳(メタデータ) (2024-06-20T10:51:06Z) - Answering Ambiguous Questions with a Database of Questions, Answers, and
Revisions [95.92276099234344]
ウィキペディアから生成される曖昧な質問のデータベースを利用して、あいまいな質問に答えるための新しい最先端技術を提案する。
提案手法は,リコール対策で15%,予測出力から不明瞭な質問を評価する尺度で10%向上する。
論文 参考訳(メタデータ) (2023-08-16T20:23:16Z) - IfQA: A Dataset for Open-domain Question Answering under Counterfactual
Presuppositions [54.23087908182134]
本稿では,QA(FifQA)と呼ばれる,最初の大規模対実的オープンドメイン質問応答(QA)ベンチマークを紹介する。
IfQAデータセットには3,800以上の質問が含まれている。
IfQAベンチマークによって引き起こされるユニークな課題は、検索と対実的推論の両方に関して、オープンドメインのQA研究を促進することである。
論文 参考訳(メタデータ) (2023-05-23T12:43:19Z) - GeoGLUE: A GeoGraphic Language Understanding Evaluation Benchmark [56.08664336835741]
我々はGeoGLUEと呼ばれるGeoGraphic Language Understanding Evaluationベンチマークを提案する。
オープンソースの地理資源からデータを収集し、6つの自然言語理解タスクを導入する。
我々は,GeoGLUEベンチマークの有効性と意義を示す一般ベースラインの評価実験と解析を行った。
論文 参考訳(メタデータ) (2023-05-11T03:21:56Z) - CREPE: Open-Domain Question Answering with False Presuppositions [92.20501870319765]
オンライン情報検索フォーラムからの予測失敗の自然な分布を含むQAデータセットであるCREPEを紹介する。
25%の質問が偽の前提命題を含み、これらの前提命題とその修正のための注釈を提供する。
既存のオープンドメインQAモデルの適応は適度に予測できるが、仮定が実際に正しいかどうかを予測するのに苦労する。
論文 参考訳(メタデータ) (2022-11-30T18:54:49Z) - Chart Question Answering: State of the Art and Future Directions [0.0]
チャート質問回答 (Chart Question Answering, CQA) システムは、通常、チャートと自然言語の質問を入力として、回答を自動的に生成する。
本稿では,グラフ質問応答問題に着目した現状研究を体系的にレビューする。
論文 参考訳(メタデータ) (2022-05-08T22:54:28Z) - SituatedQA: Incorporating Extra-Linguistic Contexts into QA [7.495151447459443]
SituatedQA(SituatedQA)は,時間的・地理的文脈を考慮に入れた質問に対して,システムが正しい回答を提示しなければならない,オープン検索型QAデータセットである。
質問を求める情報のかなりの割合は、文脈に依存した回答であることがわかった。
我々の研究は、既存のモデルが頻繁に更新される、あるいは珍しい場所から回答を得るのに苦労していることを示している。
論文 参考訳(メタデータ) (2021-09-13T17:53:21Z) - GeoQA: A Geometric Question Answering Benchmark Towards Multimodal
Numerical Reasoning [172.36214872466707]
我々は、テキスト記述、視覚図、定理知識の包括的理解を必要とする幾何学的問題を解くことに注力する。
そこで本研究では,5,010の幾何学的問題を含む幾何学的質問応答データセットGeoQAを提案する。
論文 参考訳(メタデータ) (2021-05-30T12:34:17Z) - Joint Spatio-Textual Reasoning for Answering Tourism Questions [19.214280482194503]
私たちのポイントは、利益目標(POI)を求める現実世界の質問に答えることです。
我々は,地理空間知識とテキストコーパスの情報を組み合わせて質問に答える,最初の共同文推論モデルを開発した。
本報告では, 既存のモデルに対して, 共同テキスト推論による大幅な改善を報告した。
論文 参考訳(メタデータ) (2020-09-28T20:35:00Z) - AmbigQA: Answering Ambiguous Open-domain Questions [99.59747941602684]
我々はAmbigQAを紹介した。AmbigQAは、あらゆる可能な答えを見つけることを含む、新しいオープンドメインの質問応答タスクである。
この課題を研究するために,NQ-openから14,042質問をカバーしたデータセットAmbigNQを構築した。
NQオープンの質問の半数以上が曖昧で、イベントやエンティティ参照といった曖昧さの源泉が多様であることがわかった。
論文 参考訳(メタデータ) (2020-04-22T15:42:13Z) - Understanding Knowledge Gaps in Visual Question Answering: Implications
for Gap Identification and Testing [20.117014315684287]
我々は、知識ギャップ(KG)の分類を用いて、質問を1つまたは複数のタイプのKGでタグ付けする。
次に,各KGに対する質問の分布のスキューについて検討する。
これらの新しい質問は、既存のVQAデータセットに追加することで、質問の多様性を高め、スキューを減らすことができる。
論文 参考訳(メタデータ) (2020-04-08T00:27:43Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。