論文の概要: Follow-Up Questions Improve Documents Generated by Large Language Models
- arxiv url: http://arxiv.org/abs/2407.12017v2
- Date: Thu, 15 Aug 2024 07:12:33 GMT
- ステータス: 処理完了
- システム内更新日: 2024-08-16 18:07:06.417157
- Title: Follow-Up Questions Improve Documents Generated by Large Language Models
- Title(参考訳): 大規模言語モデルによる文書改善に関するフォローアップ質問
- Authors: Bernadette J Tix,
- Abstract要約: 本研究では,短い(1ページ)テキスト文書に対するユーザからの要求に応じて,Large Language Models (LLMs) がフォローアップ質問を生成することの影響について検討した。
ユーザは、フォローアップ質問をするための新しいWebベースのAIシステムと対話した。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: This study investigates the impact of Large Language Models (LLMs) generating follow-up questions in response to user requests for short (1-page) text documents. Users interacted with a novel web-based AI system designed to ask follow-up questions. Users requested documents they would like the AI to produce. The AI then generated follow-up questions to clarify the user's needs or offer additional insights before generating the requested documents. After answering the questions, users were shown a document generated using both the initial request and the questions and answers, and a document generated using only the initial request. Users indicated which document they preferred and gave feedback about their experience with the question-answering process. The findings of this study show clear benefits to question-asking both in document preference and in the qualitative user experience. This study further shows that users found more value in questions which were thought-provoking, open-ended, or offered unique insights into the user's request as opposed to simple information-gathering questions.
- Abstract(参考訳): 本研究では,短い(1ページ)テキスト文書に対するユーザからの要求に応じて,Large Language Models (LLMs) がフォローアップ質問を生成することの影響について検討した。
ユーザは、フォローアップ質問をするための新しいWebベースのAIシステムと対話した。
ユーザは、AIが生成したいドキュメントをリクエストした。
その後、AIはユーザのニーズを明確にするためにフォローアップ質問を生成し、要求されたドキュメントを生成する前に追加の洞察を提供する。
質問に回答した後、ユーザーは、初期要求と質問と回答の両方を用いて生成された文書と、初期要求のみを用いて生成された文書を提示した。
ユーザは好みのドキュメントを示し、質問回答プロセスでの経験についてフィードバックした。
本研究は,文書の嗜好と質的ユーザエクスペリエンスの両方において,問合せのメリットを示すものである。
本研究は, 単純な情報収集質問ではなく, ユーザの要求に対して, 思考誘発, オープンエンド, あるいはユニークな洞察を提供する質問に, より多くの価値を見出したことを示唆する。
関連論文リスト
- Auto FAQ Generation [0.0]
本稿では,FAQ文書を生成するシステムを提案する。
既存のテキスト要約、テキストランクアルゴリズムによる文章ランキング、質問生成ツールを用いて、質問と回答の初期セットを作成します。
論文 参考訳(メタデータ) (2024-05-13T03:30:27Z) - JDocQA: Japanese Document Question Answering Dataset for Generative Language Models [15.950718839723027]
本稿では,大規模文書ベースのQAデータセットであるJDocQAについて紹介する。
PDF形式で5,504件の文書と日本語で11,600件の質問・回答文からなる。
現実的な質問応答アプリケーションのために,複数のカテゴリの質問と,文書から解答不能な質問を取り入れた。
論文 参考訳(メタデータ) (2024-03-28T14:22:54Z) - Generate rather than Retrieve: Large Language Models are Strong Context
Generators [74.87021992611672]
本稿では,文書検索を大規模言語モデル生成器に置き換えることで,知識集約型タスクを解く新しい視点を提案する。
我々は,提案手法をgenRead (genRead) と呼び,まず大きな言語モデルに対して,与えられた質問に基づいて文脈文書を生成し,次に生成された文書を読み出して最終回答を生成する。
論文 参考訳(メタデータ) (2022-09-21T01:30:59Z) - Asking the Right Questions in Low Resource Template Extraction [37.77304148934836]
TEシステムのエンドユーザがこれらの質問を設計できるかどうか、NLP実践者がそのプロセスに参加することが有益かどうかを問う。
本稿では,TEをプロンプトで実行するための新しいモデルを提案する。
論文 参考訳(メタデータ) (2022-05-25T10:39:09Z) - What should I Ask: A Knowledge-driven Approach for Follow-up Questions
Generation in Conversational Surveys [63.51903260461746]
対話型調査における知識駆動型フォローアップ質問生成のための新しい課題を提案する。
そこで我々は,対話履歴とラベル付き知識を用いた人手によるフォローアップ質問の新しいデータセットを構築した。
次に,その課題に対する2段階の知識駆動モデルを提案する。
論文 参考訳(メタデータ) (2022-05-23T00:57:33Z) - Evaluating Mixed-initiative Conversational Search Systems via User
Simulation [9.066817876491053]
このような検索システムの自動評価のための対話型ユーザシミュレータUSiを提案する。
Ui が生成した応答は,その基盤となる情報要求と同等であり,人間による回答に匹敵するものであることを示す。
論文 参考訳(メタデータ) (2022-04-17T16:27:33Z) - Design Challenges for a Multi-Perspective Search Engine [44.48345943046946]
我々は、新しい視点指向文書検索パラダイムについて研究する。
目的を達成するために,自然言語理解の課題を議論し,評価する。
我々は,プロトタイプシステムを用いて,我々のパラダイムの有用性を評価する。
論文 参考訳(メタデータ) (2021-12-15T18:59:57Z) - A Dataset of Information-Seeking Questions and Answers Anchored in
Research Papers [66.11048565324468]
1,585の自然言語処理論文に関する5,049の質問のデータセットを提示する。
各質問は、対応する論文のタイトルと要約のみを読むNLP実践者によって書かれ、質問は全文に存在する情報を求めます。
他のQAタスクでうまく機能する既存のモデルは、これらの質問に答える上ではうまく機能せず、論文全体から回答する際には、少なくとも27 F1ポイントパフォーマンスが低下します。
論文 参考訳(メタデータ) (2021-05-07T00:12:34Z) - Open-Retrieval Conversational Machine Reading [80.13988353794586]
会話機械読解では、システムは自然言語規則を解釈し、ハイレベルな質問に答え、フォローアップの明確化を問う必要がある。
既存の作業では、ルールテキストがユーザ毎の質問に対して提供されると仮定し、実際のシナリオにおいて必須の検索ステップを無視する。
本研究では,対話型機械読解のオープンリトリーバル設定を提案し,検討する。
論文 参考訳(メタデータ) (2021-02-17T08:55:01Z) - Conversations with Documents. An Exploration of Document-Centered
Assistance [55.60379539074692]
例えば、個人が文書をすばやくレビューするのを助けるドキュメント中心の支援は、あまり進歩していない。
我々は,文書中心の支援の空間と,人々がこのシナリオで期待する能力を理解するための調査を行う。
a) 文書中心の質問を正確に検出でき、(b) そうした質問に答えるために合理的に正確なモデルを構築することができることを示す。
論文 参考訳(メタデータ) (2020-01-27T17:10:11Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。