論文の概要: What makes us curious? analysis of a corpus of open-domain questions
- arxiv url: http://arxiv.org/abs/2110.15409v1
- Date: Thu, 28 Oct 2021 19:37:43 GMT
- ステータス: 処理完了
- システム内更新日: 2021-11-01 13:43:21.722025
- Title: What makes us curious? analysis of a corpus of open-domain questions
- Title(参考訳): 好奇心をそそる理由は?
オープンドメイン質問のコーパスの分析
- Authors: Zhaozhen Xu, Amelia Howarth, Nicole Briggs, Nello Cristianini
- Abstract要約: 2017年、ブリストルの「We the Curious」科学センターはブリストル人の好奇心を捉えるプロジェクトを開始した。
このプロジェクトは様々なトピックについて10,000以上の質問を集めた。
我々は、さまざまな処理タスクを実行するために使用できる人工知能ツールを開発した。
- 参考スコア(独自算出の注目度): 0.11470070927586014
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Every day people ask short questions through smart devices or online forums
to seek answers to all kinds of queries. With the increasing number of
questions collected it becomes difficult to provide answers to each of them,
which is one of the reasons behind the growing interest in automated question
answering. Some questions are similar to existing ones that have already been
answered, while others could be answered by an external knowledge source such
as Wikipedia. An important question is what can be revealed by analysing a
large set of questions. In 2017, "We the Curious" science centre in Bristol
started a project to capture the curiosity of Bristolians: the project
collected more than 10,000 questions on various topics. As no rules were given
during collection, the questions are truly open-domain, and ranged across a
variety of topics. One important aim for the science centre was to understand
what concerns its visitors had beyond science, particularly on societal and
cultural issues. We addressed this question by developing an Artificial
Intelligence tool that can be used to perform various processing tasks:
detection of equivalence between questions; detection of topic and type; and
answering of the question. As we focused on the creation of a "generalist"
tool, we trained it with labelled data from different datasets. We called the
resulting model QBERT. This paper describes what information we extracted from
the automated analysis of the WTC corpus of open-domain questions.
- Abstract(参考訳): 毎日、スマートデバイスやオンラインフォーラムを通じて短い質問をして、あらゆる種類の質問に対する答えを求めます。
収集された質問の数が増えると、各質問に対する回答の提供が難しくなるため、自動質問応答への関心が高まっている理由の1つである。
一部の質問は、既に答えられた既存の質問と似ており、他の質問はウィキペディアのような外部の知識ソースによって答えられる。
重要な質問は、大量の質問を分析して何を明らかにするかである。
2017年、ブリストルの"we the curious"科学センターはブリストル市民の好奇心を捉えるプロジェクトを開始した。
コレクション中にルールが与えられていないため、質問は本当にオープンドメインであり、さまざまなトピックにまたがっている。
科学センターの重要な目的の1つは、訪問者が科学、特に社会問題や文化問題にどのような関心を抱いていたかを理解することだった。
我々は,質問の同値性の検出,話題と型の検出,質問への回答など,さまざまな処理タスクの実行に使用できる人工知能ツールを開発することで,この問題に対処した。
ジェネラリスト”ツールの開発に注力する中で、さまざまなデータセットのラベル付きデータを使ってトレーニングしました。
結果のモデルをQBERTと呼びました。
本稿では,オープンドメイン質問のwtcコーパスの自動分析から抽出した情報について述べる。
関連論文リスト
- Which questions should I answer? Salience Prediction of Inquisitive Questions [118.097974193544]
非常に健全な質問は、同じ記事で経験的に答えられる可能性が高いことを示す。
質問に対する回答が,ニュースの要約品質の指標であることを示すことで,我々の知見をさらに検証する。
論文 参考訳(メタデータ) (2024-04-16T21:33:05Z) - Answering Ambiguous Questions with a Database of Questions, Answers, and
Revisions [95.92276099234344]
ウィキペディアから生成される曖昧な質問のデータベースを利用して、あいまいな質問に答えるための新しい最先端技術を提案する。
提案手法は,リコール対策で15%,予測出力から不明瞭な質問を評価する尺度で10%向上する。
論文 参考訳(メタデータ) (2023-08-16T20:23:16Z) - What Types of Questions Require Conversation to Answer? A Case Study of
AskReddit Questions [16.75969771718778]
本研究の目的は,会話を通じて最もよく答えられる無謀でオープンな質問の種類を調べることで,会話システムの境界を推し進めることである。
我々は、AskRedditに投稿された100万件のオープンエンドリクエストから500件の質問をサンプリングし、オンラインの群衆労働者を雇い、これらの質問について8つの質問に答えた。
私たちは、人々が十分に解決するために会話を必要とすると信じている問題は、非常に社会的かつ個人的なものであることに気付きました。
論文 参考訳(メタデータ) (2023-03-30T21:05:22Z) - CREPE: Open-Domain Question Answering with False Presuppositions [92.20501870319765]
オンライン情報検索フォーラムからの予測失敗の自然な分布を含むQAデータセットであるCREPEを紹介する。
25%の質問が偽の前提命題を含み、これらの前提命題とその修正のための注釈を提供する。
既存のオープンドメインQAモデルの適応は適度に予測できるが、仮定が実際に正しいかどうかを予測するのに苦労する。
論文 参考訳(メタデータ) (2022-11-30T18:54:49Z) - CONSISTENT: Open-Ended Question Generation From News Articles [38.41162895492449]
オープンな質問を生成するための新しいエンドツーエンドシステムであるConSISTENTを提案する。
我々は,自動評価と人的評価の両方を用いて,複数のベースライン上でのモデルの強さを実証する。
ニュースメディア組織におけるダウンストリーム応用の可能性について論じる。
論文 参考訳(メタデータ) (2022-10-20T19:10:07Z) - A Dataset of Information-Seeking Questions and Answers Anchored in
Research Papers [66.11048565324468]
1,585の自然言語処理論文に関する5,049の質問のデータセットを提示する。
各質問は、対応する論文のタイトルと要約のみを読むNLP実践者によって書かれ、質問は全文に存在する情報を求めます。
他のQAタスクでうまく機能する既存のモデルは、これらの質問に答える上ではうまく機能せず、論文全体から回答する際には、少なくとも27 F1ポイントパフォーマンスが低下します。
論文 参考訳(メタデータ) (2021-05-07T00:12:34Z) - GooAQ: Open Question Answering with Diverse Answer Types [63.06454855313667]
さまざまな回答型を持つ大規模データセットであるGooAQを紹介する。
このデータセットには500万の質問と300万の回答が含まれている。
論文 参考訳(メタデータ) (2021-04-18T05:40:39Z) - Inquisitive Question Generation for High Level Text Comprehension [60.21497846332531]
InQUISITIVEは、文書を読みながら19K質問を抽出するデータセットである。
我々は,読者が情報を求めるための実践的な戦略に携わることを示す。
我々は, GPT-2に基づく質問生成モデルを評価し, 妥当な質問を生成することができることを示す。
論文 参考訳(メタデータ) (2020-10-04T19:03:39Z) - Stay Hungry, Stay Focused: Generating Informative and Specific Questions
in Information-Seeking Conversations [41.74162467619795]
情報非対称な会話における情報的質問生成の問題について検討する。
実践的な質問を生成するために,情報量測定を最適化するために強化学習を用いる。
そこで本研究では,提案した実用的質問は,ベースラインモデル上で生成した質問の有意性と特異性を大幅に向上させることを示す。
論文 参考訳(メタデータ) (2020-04-30T00:49:14Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。