論文の概要: How Well Do You Know Your Audience? Reader-aware Question Generation
- arxiv url: http://arxiv.org/abs/2110.08445v1
- Date: Sat, 16 Oct 2021 02:10:16 GMT
- ステータス: 処理完了
- システム内更新日: 2021-10-21 18:41:02.275062
- Title: How Well Do You Know Your Audience? Reader-aware Question Generation
- Title(参考訳): 聴衆はどのくらいよく知っていますか。
読者対応質問生成
- Authors: Ian Stewart, Rada Mihalcea
- Abstract要約: 専門家や初心者など,さまざまな読者が常にさまざまな質問をしていることが分かりました。
私たちの研究は、作家が異なる読者の情報ニーズを予想するのに役立つ可能性がある。
- 参考スコア(独自算出の注目度): 26.482832187553857
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: When writing, a person may need to anticipate questions from their readers,
but different types of readers may ask very different types of questions. If
someone is writing for advice about a problem, what question will a domain
expert ask, and is this different from how a novice might react? In this paper,
we address the task of reader-aware question generation. We collect a new data
set of questions and posts from social media, augmented with background
information about the post readers. Based on predictive analysis and
descriptive differences, we find that different readers, such as experts and
novices, consistently ask different types of questions. We next develop several
text generation models that incorporate different types of reader background,
including discrete and continuous reader representations based on the readers'
prior behavior. We demonstrate that reader-aware models can perform on par or
slightly better than the text-only model in some cases, particularly in cases
where a post attracts very different questions from readers of different
groups. Our work has the potential to help writers anticipate the information
needs of different readers.
- Abstract(参考訳): 執筆時には、読者からの質問を予想する必要があるが、異なるタイプの読者は、まったく異なるタイプの質問をすることがある。
誰かが問題に関するアドバイスを書いている場合、ドメインの専門家はどんな質問をしますか。
本稿では,読者認識型質問生成の課題に対処する。
私たちはソーシャルメディアから新しい質問と投稿のデータセットを収集し、記事の読者に関する背景情報を追加します。
予測分析と記述的差異に基づいて、専門家や初心者など、さまざまな読者が常に異なるタイプの質問をしていることが分かる。
次に、読者の先行行動に基づく離散的かつ連続的な読者表現を含む、様々な種類の読者背景を組み込んだテキスト生成モデルを開発する。
読者認識モデルがテキストのみのモデルよりわずかに優れている場合、特に記事が異なるグループの読者から非常に異なる質問を引き付ける場合において、いくつかのケースにおいて示している。
私たちの仕事は、作家が異なる読者の情報ニーズを予想するのに役立つ可能性がある。
関連論文リスト
- How to Engage Your Readers? Generating Guiding Questions to Promote Active Reading [60.19226384241482]
教科書や科学論文から10Kのインテキスト質問のデータセットであるGuidingQを紹介した。
言語モデルを用いてこのような質問を生成するための様々なアプローチを探索する。
我々は、そのような質問が読解に与える影響を理解するために、人間の研究を行う。
論文 参考訳(メタデータ) (2024-07-19T13:42:56Z) - Discord Questions: A Computational Approach To Diversity Analysis in
News Coverage [84.55145223950427]
本稿では,情報源の違いを識別し,ニュース報道の多様性を理解する上で,読者を支援する新しい枠組みを提案する。
このフレームワークはDiscord Questionsの生成に基づいている。
論文 参考訳(メタデータ) (2022-11-09T16:37:55Z) - Identifying Experts in Question & Answer Portals: A Case Study on Data
Science Competencies in Reddit [0.0]
Redditにおけるデータサイエンスの専門家の特定の可能性について検討する。
本手法は,2人のデータサイエンス専門家が専門家と専門家以外のコメントだけでなく,スコープ外コメントをラベル付けした手作業によるコーディング結果に基づいている。
我々は,1,113のラベル付きコメントと100,226の未ラベル付きコメントを組み合わせた半教師付きアプローチを提案する。
論文 参考訳(メタデータ) (2022-04-08T14:30:59Z) - Question Generation for Reading Comprehension Assessment by Modeling How
and What to Ask [3.470121495099]
本研究では,推論的質問が重要となる読解のための質問生成(QG)について検討する。
本稿では,従来のデータセットを利用した2段階モデル(HTA-WTA)を提案する。
HTA-WTAモデルでは,深い推論を問うことで,強いSCRSの検証を行う。
論文 参考訳(メタデータ) (2022-04-06T15:52:24Z) - Visual Question Rewriting for Increasing Response Rate [12.700769102964088]
人からの回答率を改善するために、自然言語の質問を自動的に書き換える方法について検討する。
視覚的情報を用いて新しい質問を改善するために,視覚的質問書き換え(VQR)タスクが導入された。
論文 参考訳(メタデータ) (2021-06-04T04:46:47Z) - Open-Retrieval Conversational Machine Reading [80.13988353794586]
会話機械読解では、システムは自然言語規則を解釈し、ハイレベルな質問に答え、フォローアップの明確化を問う必要がある。
既存の作業では、ルールテキストがユーザ毎の質問に対して提供されると仮定し、実際のシナリオにおいて必須の検索ステップを無視する。
本研究では,対話型機械読解のオープンリトリーバル設定を提案し,検討する。
論文 参考訳(メタデータ) (2021-02-17T08:55:01Z) - Generating Diversified Comments via Reader-Aware Topic Modeling and
Saliency Detection [25.16392119801612]
生成したコメントの質を高めるために,読者が認識するトピックモデリングとサリエンシー情報検出フレームワークを提案する。
読者対応トピックモデリングのために,読者コメントからの潜在意味学習と話題マイニングのための変分生成クラスタリングアルゴリズムを設計した。
サリエンシー情報検出のために、ニュースコンテンツを推定してサリエンシー情報を選択するBernoulli分布について紹介します。
論文 参考訳(メタデータ) (2021-02-13T03:50:31Z) - How to Train Your Agent to Read and Write [52.24605794920856]
研究論文の読み書きは、資格のある研究者が習得すべき最も特権のある能力の1つである。
読者が論文を読み、要約できるようにインテリジェントなエージェントを訓練し、おそらく新しい論文を書くための潜在的な知識の手がかりを発見し、活用できれば、それは魅力的です。
本研究では,入力段落から知識グラフ(KG)を抽出して潜在的な知識を発見できるtextitReader,新規段落を生成するgraph-to-text TextitWriter,およびtextitから構成されるDeep ReAder-Writer(DRAW)ネットワークを提案する。
論文 参考訳(メタデータ) (2021-01-04T12:22:04Z) - Inquisitive Question Generation for High Level Text Comprehension [60.21497846332531]
InQUISITIVEは、文書を読みながら19K質問を抽出するデータセットである。
我々は,読者が情報を求めるための実践的な戦略に携わることを示す。
我々は, GPT-2に基づく質問生成モデルを評価し, 妥当な質問を生成することができることを示す。
論文 参考訳(メタデータ) (2020-10-04T19:03:39Z) - Open-Domain Question Answering with Pre-Constructed Question Spaces [70.13619499853756]
オープンドメインの質問応答は、大量の文書の集合の中でユーザ生成した質問に対する回答を見つけるという課題を解決することを目的としている。
ソリューションには、レトリバーリーダーとナレッジグラフベースのアプローチの2つのファミリーがある。
本稿では,両家系と異なるリーダ・リトリバー構造を持つ新しいアルゴリズムを提案する。
論文 参考訳(メタデータ) (2020-06-02T04:31:09Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。