論文の概要: What Types of Questions Require Conversation to Answer? A Case Study of
AskReddit Questions
- arxiv url: http://arxiv.org/abs/2303.17710v2
- Date: Mon, 3 Apr 2023 21:14:54 GMT
- ステータス: 処理完了
- システム内更新日: 2023-04-05 17:23:15.404379
- Title: What Types of Questions Require Conversation to Answer? A Case Study of
AskReddit Questions
- Title(参考訳): 質問に答えるにはどのような質問が必要か?
AskReddit 質問のケーススタディ
- Authors: Shih-Hong Huang, Chieh-Yang Huang, Ya-Fang Lin, Ting-Hao 'Kenneth'
Huang
- Abstract要約: 本研究の目的は,会話を通じて最もよく答えられる無謀でオープンな質問の種類を調べることで,会話システムの境界を推し進めることである。
我々は、AskRedditに投稿された100万件のオープンエンドリクエストから500件の質問をサンプリングし、オンラインの群衆労働者を雇い、これらの質問について8つの質問に答えた。
私たちは、人々が十分に解決するために会話を必要とすると信じている問題は、非常に社会的かつ個人的なものであることに気付きました。
- 参考スコア(独自算出の注目度): 16.75969771718778
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The proliferation of automated conversational systems such as chatbots,
spoken-dialogue systems, and smart speakers, has significantly impacted modern
digital life. However, these systems are primarily designed to provide answers
to well-defined questions rather than to support users in exploring complex,
ill-defined questions. In this paper, we aim to push the boundaries of
conversational systems by examining the types of nebulous, open-ended questions
that can best be answered through conversation. We first sampled 500 questions
from one million open-ended requests posted on AskReddit, and then recruited
online crowd workers to answer eight inquiries about these questions. We also
performed open coding to categorize the questions into 27 different domains. We
found that the issues people believe require conversation to resolve
satisfactorily are highly social and personal. Our work provides insights into
how future research could be geared to align with users' needs.
- Abstract(参考訳): チャットボット、音声対話システム、スマートスピーカーなどの自動会話システムの普及は、現代のデジタル生活に大きな影響を与えている。
しかし、これらのシステムは、ユーザが複雑な不明確な質問を探索するのを支援するのではなく、よく定義された質問に対する回答を提供するように設計されている。
本稿では,会話を通じて最も答えられる不明瞭でオープンな質問のタイプを調べることにより,会話システムの境界を押し上げることを目的とする。
最初にAskRedditに投稿された100万件のオープンエンドリクエストから500件の質問をサンプリングし、オンラインの群衆労働者を雇い、これらの質問について8つの質問に答えた。
また、オープンコーディングを行い、質問を27の異なる領域に分類しました。
人々が十分解決するために会話を必要とすると考える問題は、高度に社会的で個人的なものであることが分かりました。
私たちの研究は、将来の研究がどのようにユーザのニーズに合わせることができるかについての洞察を提供する。
関連論文リスト
- Auto FAQ Generation [0.0]
本稿では,FAQ文書を生成するシステムを提案する。
既存のテキスト要約、テキストランクアルゴリズムによる文章ランキング、質問生成ツールを用いて、質問と回答の初期セットを作成します。
論文 参考訳(メタデータ) (2024-05-13T03:30:27Z) - Which questions should I answer? Salience Prediction of Inquisitive Questions [118.097974193544]
非常に健全な質問は、同じ記事で経験的に答えられる可能性が高いことを示す。
質問に対する回答が,ニュースの要約品質の指標であることを示すことで,我々の知見をさらに検証する。
論文 参考訳(メタデータ) (2024-04-16T21:33:05Z) - Answering Ambiguous Questions with a Database of Questions, Answers, and
Revisions [95.92276099234344]
ウィキペディアから生成される曖昧な質問のデータベースを利用して、あいまいな質問に答えるための新しい最先端技術を提案する。
提案手法は,リコール対策で15%,予測出力から不明瞭な質問を評価する尺度で10%向上する。
論文 参考訳(メタデータ) (2023-08-16T20:23:16Z) - HeySQuAD: A Spoken Question Answering Dataset [2.3881849082514153]
本研究では,HeySQuADと呼ばれる大規模コミュニティ共有SQAデータセットを提案する。
我々の目標は、機械が雑音の多い質問を正確に理解し、信頼できる回答を提供する能力を測定することである。
論文 参考訳(メタデータ) (2023-04-26T17:15:39Z) - Interactive Question Answering Systems: Literature Review [17.033640293433397]
対話型質問応答(Interactive Question answering)は、質問応答と対話システムの交差点に存在する、最近提案され、ますます人気が高まっているソリューションである。
ユーザがより多くの質問をできるようにすることで、インタラクティブな質問応答によって、ユーザはシステムと動的に対話し、より正確な結果を受け取ることができる。
本調査は,現在の文献で広く普及している対話型質問応答法の概要を概説する。
論文 参考訳(メタデータ) (2022-09-04T13:46:54Z) - Evaluating Mixed-initiative Conversational Search Systems via User
Simulation [9.066817876491053]
このような検索システムの自動評価のための対話型ユーザシミュレータUSiを提案する。
Ui が生成した応答は,その基盤となる情報要求と同等であり,人間による回答に匹敵するものであることを示す。
論文 参考訳(メタデータ) (2022-04-17T16:27:33Z) - What makes us curious? analysis of a corpus of open-domain questions [0.11470070927586014]
2017年、ブリストルの「We the Curious」科学センターはブリストル人の好奇心を捉えるプロジェクトを開始した。
このプロジェクトは様々なトピックについて10,000以上の質問を集めた。
我々は、さまざまな処理タスクを実行するために使用できる人工知能ツールを開発した。
論文 参考訳(メタデータ) (2021-10-28T19:37:43Z) - Building and Evaluating Open-Domain Dialogue Corpora with Clarifying
Questions [65.60888490988236]
オープンドメインのシングルターンとマルチターンの会話に焦点を当てたデータセットをリリースする。
我々は最先端のニューラルベースラインをいくつかベンチマークする。
様々な対話における質問の明確化の質を評価するための,オフラインおよびオンラインのステップからなるパイプラインを提案する。
論文 参考訳(メタデータ) (2021-09-13T09:16:14Z) - QAConv: Question Answering on Informative Conversations [85.2923607672282]
ビジネスメールやパネルディスカッション,作業チャネルなど,情報的な会話に重点を置いています。
合計で、スパンベース、フリーフォーム、および回答不能な質問を含む34,204のQAペアを収集します。
論文 参考訳(メタデータ) (2021-05-14T15:53:05Z) - Open-Retrieval Conversational Machine Reading [80.13988353794586]
会話機械読解では、システムは自然言語規則を解釈し、ハイレベルな質問に答え、フォローアップの明確化を問う必要がある。
既存の作業では、ルールテキストがユーザ毎の質問に対して提供されると仮定し、実際のシナリオにおいて必須の検索ステップを無視する。
本研究では,対話型機械読解のオープンリトリーバル設定を提案し,検討する。
論文 参考訳(メタデータ) (2021-02-17T08:55:01Z) - ConvAI3: Generating Clarifying Questions for Open-Domain Dialogue
Systems (ClariQ) [64.60303062063663]
本論文では,対話システムに対する質問の明確化に関する課題について詳述する(ClariQ)。
このチャレンジは、2020年のSearch Oriented Conversational AI (SCAI) EMNLPワークショップで、ConvAI3(Conversational AI Challenge series)の一部として組織されている。
論文 参考訳(メタデータ) (2020-09-23T19:48:02Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。