論文の概要: Rehearsing Answers to Probable Questions with Perspective-Taking
- arxiv url: http://arxiv.org/abs/2409.18678v1
- Date: Fri, 27 Sep 2024 12:05:05 GMT
- ステータス: 処理完了
- システム内更新日: 2024-10-01 16:10:18.744343
- Title: Rehearsing Answers to Probable Questions with Perspective-Taking
- Title(参考訳): パースペクティブ・テイキングによる質問に対する回答のリハーサル
- Authors: Yung-Yu Shih, Ziwei Xu, Hiroya Takamura, Yun-Nung Chen, Chung-Chi Chen,
- Abstract要約: 本研究は,プロの口頭プレゼンテーションにおける質問に対する回答作成に関するシナリオの検討を先駆的に進めるものである。
3つの因果知識グラフ(KG)と3つの大言語モデル(LLM)を用いて提案課題を探索する。
この研究は、専門的なQAシナリオにおけるLLMの適用に関する基礎的な洞察を提供し、因果的なKGと視点決定の重要性を強調します。
- 参考スコア(独自算出の注目度): 30.67315931493573
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Question answering (QA) has been a long-standing focus in the NLP field, predominantly addressing reading comprehension and common sense QA. However, scenarios involving the preparation of answers to probable questions during professional oral presentations remain underexplored. In this paper, we pioneer the examination of this crucial yet overlooked topic by utilizing real-world QA conversation transcripts between company managers and professional analysts. We explore the proposed task using three causal knowledge graphs (KGs) and three large language models (LLMs). This work provides foundational insights into the application of LLMs in professional QA scenarios, highlighting the importance of causal KGs and perspective-taking in generating effective responses.
- Abstract(参考訳): 質問応答(QA)は,NLP分野における長年の焦点であり,読解理解と常識QAに主眼を置いている。
しかし, プロの口頭プレゼンテーションにおける質問に対する回答作成のシナリオは, 未検討のままである。
本稿では,企業経営者と専門アナリストの実際のQA会話の書き起こしを活用することで,この重要かつ見落とされがちな話題について検討する。
本稿では,3つの因果知識グラフ(KG)と3つの大言語モデル(LLM)を用いて,提案課題について検討する。
この研究は、専門的なQAシナリオにおけるLLMの適用に関する基礎的な洞察を提供し、因果的なKGの重要性と、効果的な応答を生み出すための視点を取ることの重要性を強調している。
関連論文リスト
- Co-Trained Retriever-Generator Framework for Question Generation in Earnings Calls [26.21777910802591]
本稿は、決算報告のコンテキストに特化して設計されたマルチクエストジェネレーション(MQG)タスクの先駆者である。
当社の手法は、収支報告書の総括収集と、潜在的な質問を分類するための新しいアノテーション技術を含む。
アナリストが提示する可能性のある潜在的な質問のスペクトルを生成するための中核的な目的として、私たちはこれらを直接、収支報告の内容から導き出します。
論文 参考訳(メタデータ) (2024-09-27T12:04:58Z) - The Imperative of Conversation Analysis in the Era of LLMs: A Survey of Tasks, Techniques, and Trends [64.99423243200296]
会話分析(CA)は、会話データから重要な情報を発見し分析する。
本稿では,CAタスクの徹底的なレビューとシステム化を行い,既存の業務を要約する。
会話シーンの再構築,奥行きの属性分析,ターゲットトレーニングの実行,会話の生成から,CAの4つの重要なステップを導出した。
論文 参考訳(メタデータ) (2024-09-21T16:52:43Z) - PAQA: Toward ProActive Open-Retrieval Question Answering [34.883834970415734]
本研究の目的は、ユーザクエリとドキュメントの両方に存在する固有の曖昧さを考慮し、関連性のある明確な質問を生成するという課題に取り組むことである。
本稿では,既存のAmbiNQデータセットの拡張であるPAQAを提案する。
次に,様々なモデルの評価を行い,経路探索があいまいさの検出と明瞭な質問の生成にどのように影響するかを評価する。
論文 参考訳(メタデータ) (2024-02-26T14:40:34Z) - ExpertQA: Expert-Curated Questions and Attributed Answers [51.68314045809179]
我々は,様々な属性と事実の軸に沿って,いくつかの代表システムからの応答を人為的に評価する。
我々は32分野にわたる484人の被験者から専門家による質問を収集し、同じ専門家に自身の質問に対する反応を評価する。
分析の結果は,32分野にまたがる2177の質問と,回答の検証とクレームの属性を備えた高品質な長文QAデータセットであるExpertQAである。
論文 参考訳(メタデータ) (2023-09-14T16:54:34Z) - Multifaceted Improvements for Conversational Open-Domain Question
Answering [54.913313912927045]
対話型オープンドメイン質問回答(MICQA)のための多面的改善フレームワークを提案する。
第一に、提案したKL分割に基づく正規化は、検索と解答のためのより良い質問理解をもたらすことができる。
第二に、追加されたポストランカモジュールは、より関連性の高いパスをトップにプッシュし、2アスペクトの制約で読者に選択できる。
第3に、十分に設計されたカリキュラム学習戦略は、訓練と推論の黄金の通路設定のギャップを効果的に狭め、黄金の通路支援なしで真の答えを見つけることを奨励する。
論文 参考訳(メタデータ) (2022-04-01T07:54:27Z) - A Dataset of Information-Seeking Questions and Answers Anchored in
Research Papers [66.11048565324468]
1,585の自然言語処理論文に関する5,049の質問のデータセットを提示する。
各質問は、対応する論文のタイトルと要約のみを読むNLP実践者によって書かれ、質問は全文に存在する情報を求めます。
他のQAタスクでうまく機能する既存のモデルは、これらの質問に答える上ではうまく機能せず、論文全体から回答する際には、少なくとも27 F1ポイントパフォーマンスが低下します。
論文 参考訳(メタデータ) (2021-05-07T00:12:34Z) - QA-GNN: Reasoning with Language Models and Knowledge Graphs for Question
Answering [122.84513233992422]
学習済み言語モデル(LM)と知識グラフ(KG)の知識を用いて質問に答える問題に対処する新しいモデルであるQA-GNNを提案する。
既存のLMとLM+KGモデルに対する改善と、解釈可能で構造化された推論を行う能力を示しています。
論文 参考訳(メタデータ) (2021-04-13T17:32:51Z) - A Survey on Complex Question Answering over Knowledge Base: Recent
Advances and Challenges [71.4531144086568]
知識ベース(KB)に対する質問回答(QA)は、自然言語の質問に自動的に答えることを目的としている。
研究者は、よりKBのトリプルと制約推論を必要とする単純な質問から複雑な質問へと注意を移した。
論文 参考訳(メタデータ) (2020-07-26T07:13:32Z) - Review-guided Helpful Answer Identification in E-commerce [38.276241153439955]
製品固有のコミュニティ質問応答プラットフォームは、潜在的な顧客の懸念に対処するのに大いに役立ちます。
このようなプラットフォーム上でユーザが提供する回答は、その品質に大きく違いがあります。
コミュニティからのヘルプフルネスの投票は、回答の全体的な品質を示すことができるが、しばしば欠落している。
論文 参考訳(メタデータ) (2020-03-13T11:34:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。