論文の概要: Question Answering in Natural Language: the Special Case of Temporal
Expressions
- arxiv url: http://arxiv.org/abs/2311.14087v1
- Date: Thu, 23 Nov 2023 16:26:24 GMT
- ステータス: 処理完了
- システム内更新日: 2023-11-27 23:03:13.879393
- Title: Question Answering in Natural Language: the Special Case of Temporal
Expressions
- Title(参考訳): 自然言語における質問応答 : 時間表現の特例
- Authors: Armand Stricker
- Abstract要約: 本研究の目的は,1段落内の時間的質問に対する回答を見つけるために,一般的な質問応答や回答抽出に使用される一般的なアプローチを活用することである。
モデルをトレーニングするために、SQuADにインスパイアされた新しいデータセットを提案する。
本評価は,パターンマッチングを訓練した深層学習モデルにおいて,時間的質問応答に適応できることを示す。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Although general question answering has been well explored in recent years,
temporal question answering is a task which has not received as much focus. Our
work aims to leverage a popular approach used for general question answering,
answer extraction, in order to find answers to temporal questions within a
paragraph. To train our model, we propose a new dataset, inspired by SQuAD,
specifically tailored to provide rich temporal information. We chose to adapt
the corpus WikiWars, which contains several documents on history's greatest
conflicts. Our evaluation shows that a deep learning model trained to perform
pattern matching, often used in general question answering, can be adapted to
temporal question answering, if we accept to ask questions whose answers must
be directly present within a text.
- Abstract(参考訳): 近年,一般的な質問応答はよく研究されているが,時間的質問応答はそれほど注目されていない課題である。
本研究の目的は,一般質問応答や回答抽出に使用される一般的なアプローチを活用し,段落内の時間的質問に対する回答を見つけることにある。
モデルをトレーニングするために、SQuADにインスパイアされた新しいデータセットを提案する。
我々は歴史の最大の紛争に関するいくつかの文書を含むコーパスウィキワーズの採用を選択した。
評価の結果,テキスト内で直接回答しなければならない質問を受理した場合,一般的な質問応答によく使用されるパターンマッチングを行うように訓練されたディープラーニングモデルが,時間的質問応答に適応できることが示されている。
関連論文リスト
- Detecting Temporal Ambiguity in Questions [16.434748534272014]
時間的に曖昧な質問は、そのような質問の最も一般的なタイプの1つである。
本アノテーションは,時間的あいまいさを捉え,時間的あいまいな質問を検出するタスクを研究することに焦点を当てている。
本稿では,質問の曖昧なバージョンに基づく多様な検索戦略を用いて,新しいアプローチを提案する。
論文 参考訳(メタデータ) (2024-09-25T15:59:58Z) - Which questions should I answer? Salience Prediction of Inquisitive Questions [118.097974193544]
非常に健全な質問は、同じ記事で経験的に答えられる可能性が高いことを示す。
質問に対する回答が,ニュースの要約品質の指標であることを示すことで,我々の知見をさらに検証する。
論文 参考訳(メタデータ) (2024-04-16T21:33:05Z) - Long-form Question Answering: An Iterative Planning-Retrieval-Generation
Approach [28.849548176802262]
長文質問応答(LFQA)は,段落の形で詳細な回答を生成するため,課題となる。
本稿では,反復計画,検索,生成を伴うLFQAモデルを提案する。
我々のモデルはLFQAタスクの様々なテキストおよび実測値の最先端モデルよりも優れていることがわかった。
論文 参考訳(メタデータ) (2023-11-15T21:22:27Z) - Answering Ambiguous Questions with a Database of Questions, Answers, and
Revisions [95.92276099234344]
ウィキペディアから生成される曖昧な質問のデータベースを利用して、あいまいな質問に答えるための新しい最先端技術を提案する。
提案手法は,リコール対策で15%,予測出力から不明瞭な質問を評価する尺度で10%向上する。
論文 参考訳(メタデータ) (2023-08-16T20:23:16Z) - Concise Answers to Complex Questions: Summarization of Long-form Answers [27.190319030219285]
我々は,最先端モデルから生成された要約された回答と,新たに提案した抽出・デコンテクライズ手法について,ユーザスタディを行った。
複雑で暗黙的な解答は圧縮が困難であるのに対し、少なくとも1つのシステムによって、大量の長文解答を適切に要約できることがわかった。
要約作業において,非コンテクスト化によって抽出された要約の質が向上し,その可能性を実証する。
論文 参考訳(メタデータ) (2023-05-30T17:59:33Z) - CREPE: Open-Domain Question Answering with False Presuppositions [92.20501870319765]
オンライン情報検索フォーラムからの予測失敗の自然な分布を含むQAデータセットであるCREPEを紹介する。
25%の質問が偽の前提命題を含み、これらの前提命題とその修正のための注釈を提供する。
既存のオープンドメインQAモデルの適応は適度に予測できるが、仮定が実際に正しいかどうかを予測するのに苦労する。
論文 参考訳(メタデータ) (2022-11-30T18:54:49Z) - Conversational QA Dataset Generation with Answer Revision [2.5838973036257458]
本稿では,一節から質問に値するフレーズを抽出し,過去の会話を考慮し,それに対応する質問を生成する新しい枠組みを提案する。
本フレームワークでは,抽出した回答を質問生成後に修正し,その回答が一致した質問に正確に一致するようにした。
論文 参考訳(メタデータ) (2022-09-23T04:05:38Z) - How Do We Answer Complex Questions: Discourse Structure of Long-form
Answers [51.973363804064704]
3つのデータセットから収集した長文回答の機能構造について検討した。
私たちの主な目標は、人間が複雑な答えを作るためにどのように情報を整理するかを理解することです。
我々の研究は、長期QAシステムの談話レベルのモデリングと評価に関する将来の研究に刺激を与えることができる。
論文 参考訳(メタデータ) (2022-03-21T15:14:10Z) - A Dataset of Information-Seeking Questions and Answers Anchored in
Research Papers [66.11048565324468]
1,585の自然言語処理論文に関する5,049の質問のデータセットを提示する。
各質問は、対応する論文のタイトルと要約のみを読むNLP実践者によって書かれ、質問は全文に存在する情報を求めます。
他のQAタスクでうまく機能する既存のモデルは、これらの質問に答える上ではうまく機能せず、論文全体から回答する際には、少なくとも27 F1ポイントパフォーマンスが低下します。
論文 参考訳(メタデータ) (2021-05-07T00:12:34Z) - A Graph-guided Multi-round Retrieval Method for Conversational
Open-domain Question Answering [52.041815783025186]
本稿では,会話のターン間の回答間の関係をモデル化するグラフ誘導検索手法を提案する。
また,検索コンテキストが現在の質問理解に与える影響を検討するために,マルチラウンド関連フィードバック手法を導入することを提案する。
論文 参考訳(メタデータ) (2021-04-17T04:39:41Z) - Do not let the history haunt you -- Mitigating Compounding Errors in
Conversational Question Answering [17.36904526340775]
事前に予測された回答をテスト時に使用すると、複合的なエラーが発生する。
本研究では,目標解とモデル予測を動的に選択するサンプリング戦略を提案する。
論文 参考訳(メタデータ) (2020-05-12T13:29:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。