論文の概要: PreWoMe: Exploiting Presuppositions as Working Memory for Long Form
Question Answering
- arxiv url: http://arxiv.org/abs/2310.16147v2
- Date: Tue, 14 Nov 2023 02:46:32 GMT
- ステータス: 処理完了
- システム内更新日: 2023-11-15 18:02:31.846974
- Title: PreWoMe: Exploiting Presuppositions as Working Memory for Long Form
Question Answering
- Title(参考訳): PreWoMe: ロングフォーム質問回答のためのワーキングメモリとしての前提事項のエクスプロイト
- Authors: Wookje Han, Jinsol Park, Kyungjae Lee
- Abstract要約: 我々は,任意の種類の情報探索問題に対処できる統一的なアプローチであるPreWoMeを提案する。
実験の結果,PreWoMeは誤解を招く質問に対処するだけでなく,通常の質問に対処する上でも有効であることがわかった。
- 参考スコア(独自算出の注目度): 6.629673922630515
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Information-seeking questions in long-form question answering (LFQA) often
prove misleading due to ambiguity or false presupposition in the question.
While many existing approaches handle misleading questions, they are tailored
to limited questions, which are insufficient in a real-world setting with
unpredictable input characteristics. In this work, we propose PreWoMe, a
unified approach capable of handling any type of information-seeking question.
The key idea of PreWoMe involves extracting presuppositions in the question and
exploiting them as working memory to generate feedback and action about the
question. Our experiment shows that PreWoMe is effective not only in tackling
misleading questions but also in handling normal ones, thereby demonstrating
the effectiveness of leveraging presuppositions, feedback, and action for
real-world QA settings.
- Abstract(参考訳): 長文質問応答(LFQA)における情報探索質問は、その質問の曖昧さや偽の前提によって誤解を招くことが多い。
既存の多くのアプローチは誤解を招く問題に対処するが、予測不可能な入力特性を持つ現実世界では不十分な限られた問題に適応している。
本研究では,任意の種類の情報探索問題に対処できる統一的なアプローチであるPreWoMeを提案する。
PreWoMeのキーとなるアイデアは、質問の前提を抽出し、それらをワーキングメモリとして利用して、質問に対するフィードバックとアクションを生成することである。
実験の結果,PreWoMeは誤解を招く質問に対処するだけでなく,通常の質問に対処する上でも有効であることがわかった。
関連論文リスト
- Which questions should I answer? Salience Prediction of Inquisitive Questions [118.097974193544]
非常に健全な質問は、同じ記事で経験的に答えられる可能性が高いことを示す。
質問に対する回答が,ニュースの要約品質の指標であることを示すことで,我々の知見をさらに検証する。
論文 参考訳(メタデータ) (2024-04-16T21:33:05Z) - Don't Just Say "I don't know"! Self-aligning Large Language Models for Responding to Unknown Questions with Explanations [70.6395572287422]
自己調整法は,回答を拒否するだけでなく,未知の質問の解答不能を説明できる。
我々は, LLM自体を微調整し, 未知の質問に対する応答を所望の通りに調整するために, 偏差駆動による自己計算を行い, 有資格データを選択する。
論文 参考訳(メタデータ) (2024-02-23T02:24:36Z) - Pregnant Questions: The Importance of Pragmatic Awareness in Maternal Health Question Answering [19.195475222742367]
本研究では,母親が妊娠と乳幼児ケアについて質問したときの仮定と含意,あるいは実践的推論について検討する。
我々は3つの異なるソースから500の質問から2,727の推論データセットを収集します。
既存のQAパイプラインを実用的な推論でインフォームすると、より完全な応答が生成されることを示す。
論文 参考訳(メタデータ) (2023-11-16T03:33:01Z) - Answering Ambiguous Questions with a Database of Questions, Answers, and
Revisions [95.92276099234344]
ウィキペディアから生成される曖昧な質問のデータベースを利用して、あいまいな質問に答えるための新しい最先端技術を提案する。
提案手法は,リコール対策で15%,予測出力から不明瞭な質問を評価する尺度で10%向上する。
論文 参考訳(メタデータ) (2023-08-16T20:23:16Z) - CREPE: Open-Domain Question Answering with False Presuppositions [92.20501870319765]
オンライン情報検索フォーラムからの予測失敗の自然な分布を含むQAデータセットであるCREPEを紹介する。
25%の質問が偽の前提命題を含み、これらの前提命題とその修正のための注釈を提供する。
既存のオープンドメインQAモデルの適応は適度に予測できるが、仮定が実際に正しいかどうかを予測するのに苦労する。
論文 参考訳(メタデータ) (2022-11-30T18:54:49Z) - Asking It All: Generating Contextualized Questions for any Semantic Role [56.724302729493594]
本稿では,役割質問生成の課題について紹介する。
このタスクの2段階モデルを開発し、まず、各ロールに対する文脈に依存しない質問プロトタイプを作成する。
我々の評価は、述語と役割の大規模かつ広範な包括的領域に対して、多種多様でよく形成された質問を生成することを示す。
論文 参考訳(メタデータ) (2021-09-10T12:31:14Z) - Do not let the history haunt you -- Mitigating Compounding Errors in
Conversational Question Answering [17.36904526340775]
事前に予測された回答をテスト時に使用すると、複合的なエラーが発生する。
本研究では,目標解とモデル予測を動的に選択するサンプリング戦略を提案する。
論文 参考訳(メタデータ) (2020-05-12T13:29:38Z) - Visual Question Answering with Prior Class Semantics [50.845003775809836]
候補解のセマンティクスに関連する追加情報を利用する方法を示す。
セマンティック空間における回帰目標を用いて解答予測プロセスを拡張する。
提案手法は,様々な質問タイプに対して,一貫性と精度の向上をもたらす。
論文 参考訳(メタデータ) (2020-05-04T02:46:31Z) - Stay Hungry, Stay Focused: Generating Informative and Specific Questions
in Information-Seeking Conversations [41.74162467619795]
情報非対称な会話における情報的質問生成の問題について検討する。
実践的な質問を生成するために,情報量測定を最適化するために強化学習を用いる。
そこで本研究では,提案した実用的質問は,ベースラインモデル上で生成した質問の有意性と特異性を大幅に向上させることを示す。
論文 参考訳(メタデータ) (2020-04-30T00:49:14Z) - Review-guided Helpful Answer Identification in E-commerce [38.276241153439955]
製品固有のコミュニティ質問応答プラットフォームは、潜在的な顧客の懸念に対処するのに大いに役立ちます。
このようなプラットフォーム上でユーザが提供する回答は、その品質に大きく違いがあります。
コミュニティからのヘルプフルネスの投票は、回答の全体的な品質を示すことができるが、しばしば欠落している。
論文 参考訳(メタデータ) (2020-03-13T11:34:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。