論文の概要: Asking It All: Generating Contextualized Questions for any Semantic Role
- arxiv url: http://arxiv.org/abs/2109.04832v1
- Date: Fri, 10 Sep 2021 12:31:14 GMT
- ステータス: 処理完了
- システム内更新日: 2021-09-13 13:31:35.957465
- Title: Asking It All: Generating Contextualized Questions for any Semantic Role
- Title(参考訳): すべてを問う - 意味的な役割に対するコンテキスト化された質問の生成
- Authors: Valentina Pyatkin, Paul Roit, Julian Michael, Reut Tsarfaty, Yoav
Goldberg, Ido Dagan
- Abstract要約: 本稿では,役割質問生成の課題について紹介する。
このタスクの2段階モデルを開発し、まず、各ロールに対する文脈に依存しない質問プロトタイプを作成する。
我々の評価は、述語と役割の大規模かつ広範な包括的領域に対して、多種多様でよく形成された質問を生成することを示す。
- 参考スコア(独自算出の注目度): 56.724302729493594
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Asking questions about a situation is an inherent step towards understanding
it. To this end, we introduce the task of role question generation, which,
given a predicate mention and a passage, requires producing a set of questions
asking about all possible semantic roles of the predicate. We develop a
two-stage model for this task, which first produces a context-independent
question prototype for each role and then revises it to be contextually
appropriate for the passage. Unlike most existing approaches to question
generation, our approach does not require conditioning on existing answers in
the text. Instead, we condition on the type of information to inquire about,
regardless of whether the answer appears explicitly in the text, could be
inferred from it, or should be sought elsewhere. Our evaluation demonstrates
that we generate diverse and well-formed questions for a large, broad-coverage
ontology of predicates and roles.
- Abstract(参考訳): 状況に関する質問は、それを理解するための本質的なステップです。
この目的のために、述語と節が与えられた場合、述語のすべての意味的役割について質問する一連の質問を生成する必要があるロール質問生成のタスクを導入する。
本研究は,まず,各役割に対する文脈に依存しない質問プロトタイプを作成し,その解釈を文脈的に適切であるように修正する2段階モデルを開発する。
質問生成に対する既存のアプローチとは異なり、我々のアプローチはテキスト内の既存の回答の条件付けを必要としない。
代わりに、その回答がテキストに明示的に現れるか、それから推測されるか、あるいは他の場所で検索されるべきかに関わらず、問い合わせるべき情報の種類を条件とする。
我々の評価は、述語と役割の大規模かつ広範囲なオントロジーに対して、多様でよく形成された質問を生成することを示す。
関連論文リスト
- PAQA: Toward ProActive Open-Retrieval Question Answering [34.883834970415734]
本研究の目的は、ユーザクエリとドキュメントの両方に存在する固有の曖昧さを考慮し、関連性のある明確な質問を生成するという課題に取り組むことである。
本稿では,既存のAmbiNQデータセットの拡張であるPAQAを提案する。
次に,様々なモデルの評価を行い,経路探索があいまいさの検出と明瞭な質問の生成にどのように影響するかを評価する。
論文 参考訳(メタデータ) (2024-02-26T14:40:34Z) - Elaborative Simplification as Implicit Questions Under Discussion [51.17933943734872]
本稿では,QUD フレームワークのレンズによる共同作業の簡略化について考察する。
本研究は,QUDを明示的にモデル化することで,作業の単純化と,作業内容と作業内容の関連性について,重要な理解が得られていることを示す。
論文 参考訳(メタデータ) (2023-05-17T17:26:16Z) - Keeping the Questions Conversational: Using Structured Representations
to Resolve Dependency in Conversational Question Answering [26.997542897342164]
本稿では,中間表現を会話の手がかりとして捉え,生成するための新しいフレームワークCONVSR(CONVQA using Structured Representations)を提案する。
我々はQuACとCANARDのデータセット上でモデルをテストし、提案するフレームワークが標準的な質問書き直しモデルよりも優れたF1スコアを達成できることを実験結果により示す。
論文 参考訳(メタデータ) (2023-04-14T13:42:32Z) - CREPE: Open-Domain Question Answering with False Presuppositions [92.20501870319765]
オンライン情報検索フォーラムからの予測失敗の自然な分布を含むQAデータセットであるCREPEを紹介する。
25%の質問が偽の前提命題を含み、これらの前提命題とその修正のための注釈を提供する。
既存のオープンドメインQAモデルの適応は適度に予測できるが、仮定が実際に正しいかどうかを予測するのに苦労する。
論文 参考訳(メタデータ) (2022-11-30T18:54:49Z) - Discourse Analysis via Questions and Answers: Parsing Dependency
Structures of Questions Under Discussion [57.43781399856913]
この研究は、談話分析にQUD(Language framework of Questions Under discussion)を採用する。
我々は、文間の関係を、徹底的なきめ細かい質問とは対照的に、自由形式の質問として特徴づける。
完全文書上の質問の依存関係構造を導出する第一種QUDを開発する。
論文 参考訳(メタデータ) (2022-10-12T03:53:12Z) - Discourse Comprehension: A Question Answering Framework to Represent
Sentence Connections [35.005593397252746]
談話理解のためのモデルの構築と評価における重要な課題は、注釈付きデータの欠如である。
本稿では,ニュース文書の理解を目的としたスケーラブルなデータ収集を実現する新しいパラダイムを提案する。
得られたコーパスDCQAは、607の英語文書からなる22,430の質問応答ペアで構成されている。
論文 参考訳(メタデータ) (2021-11-01T04:50:26Z) - Open-Retrieval Conversational Machine Reading [80.13988353794586]
会話機械読解では、システムは自然言語規則を解釈し、ハイレベルな質問に答え、フォローアップの明確化を問う必要がある。
既存の作業では、ルールテキストがユーザ毎の質問に対して提供されると仮定し、実際のシナリオにおいて必須の検索ステップを無視する。
本研究では,対話型機械読解のオープンリトリーバル設定を提案し,検討する。
論文 参考訳(メタデータ) (2021-02-17T08:55:01Z) - Inquisitive Question Generation for High Level Text Comprehension [60.21497846332531]
InQUISITIVEは、文書を読みながら19K質問を抽出するデータセットである。
我々は,読者が情報を求めるための実践的な戦略に携わることを示す。
我々は, GPT-2に基づく質問生成モデルを評価し, 妥当な質問を生成することができることを示す。
論文 参考訳(メタデータ) (2020-10-04T19:03:39Z) - Stay Hungry, Stay Focused: Generating Informative and Specific Questions
in Information-Seeking Conversations [41.74162467619795]
情報非対称な会話における情報的質問生成の問題について検討する。
実践的な質問を生成するために,情報量測定を最適化するために強化学習を用いる。
そこで本研究では,提案した実用的質問は,ベースラインモデル上で生成した質問の有意性と特異性を大幅に向上させることを示す。
論文 参考訳(メタデータ) (2020-04-30T00:49:14Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。