論文の概要: FairytaleCQA: Integrating a Commonsense Knowledge Graph into Children's
Storybook Narratives
- arxiv url: http://arxiv.org/abs/2311.09756v1
- Date: Thu, 16 Nov 2023 10:30:26 GMT
- ステータス: 処理完了
- システム内更新日: 2023-11-17 15:12:17.652836
- Title: FairytaleCQA: Integrating a Commonsense Knowledge Graph into Children's
Storybook Narratives
- Title(参考訳): FairytaleCQA: 子どもの物語に常識知識グラフを統合する
- Authors: Jiaju Chen, Yuxuan Lu, Shao Zhang, Bingsheng Yao, Yuanzhe Dong, Ying
Xu, Yunyao Li, Qianwen Wang, Dakuo Wang, Yuling Sun
- Abstract要約: 本研究では,FairytaleCQAデータセットを導入し,278のストーリーブック物語を教育的に適切なコモンセンス知識で補完する。
データセットには5,868対のQAペアがあり、ストーリーブックの物語に由来するだけでなく、外部知識グラフに基づく常識知識も含んでいる。
- 参考スコア(独自算出の注目度): 37.37125094937394
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: AI models (including LLM) often rely on narrative question-answering (QA)
datasets to provide customized QA functionalities to support downstream
children education applications; however, existing datasets only include QA
pairs that are grounded within the given storybook content, but children can
learn more when teachers refer the storybook content to real-world knowledge
(e.g., commonsense knowledge). We introduce the FairytaleCQA dataset, which is
annotated by children education experts, to supplement 278 storybook narratives
with educationally appropriate commonsense knowledge. The dataset has 5,868 QA
pairs that not only originate from the storybook narrative but also contain the
commonsense knowledge grounded by an external knowledge graph (i.e.,
ConceptNet). A follow-up experiment shows that a smaller model (T5-large)
fine-tuned with FairytaleCQA reliably outperforms much larger prompt-engineered
LLM (e.g., GPT-4) in this new QA-pair generation task (QAG). This result
suggests that: 1) our dataset brings novel challenges to existing LLMs, and 2)
human experts' data annotation are still critical as they have much nuanced
knowledge that LLMs do not know in the children educational domain.
- Abstract(参考訳): aiモデル(llmを含む)は、下流の子供教育アプリケーションをサポートするためにカスタマイズされたqa機能を提供するために、物語的質問応答(qa)データセットに依存することが多いが、既存のデータセットには、所定のストーリーブックコンテンツに基礎を置くqaペアのみが含まれている。
児童教育の専門家が注釈を付したfairytalecqaデータセットを導入し、278の物語を教育的に適切なコモンセンス知識で補完する。
データセットには5,868のQAペアがあり、ストーリーブックの物語に由来するだけでなく、外部知識グラフ(ConceptNet)に基づく常識知識も含んでいる。
フォローアップ実験では、FairytaleCQAで微調整された小さなモデル(T5-large)が、新しいQAペア生成タスク(QAG)において、より大きなプロンプトエンジニアリングLLM(例えば、GPT-4)よりも確実に優れていることを示した。
この結果は次のように示唆する。
1)我々のデータセットは既存のLCMに新たな課題をもたらし、
2)人間の専門家のデータアノテーションは,子どもの教育領域においてLLMが知らないようなニュアンスな知識を多く持っているため,いまだに批判的である。
関連論文リスト
- FairytaleQA Translated: Enabling Educational Question and Answer Generation in Less-Resourced Languages [0.0]
本稿では,幼児の物語理解能力の評価と向上を目的とした,有名なQAデータセットであるFairytaleQAの機械翻訳版を紹介する。
我々は、翻訳データセット内の質問生成(QG)タスクとQAタスクのベンチマークを確立するために、微調整された、控えめなスケールのモデルを採用している。
本稿では,質問応答対の生成モデルを提案し,質問適合性,回答可能性,妥当性,子どもの適合性などの品質指標を取り入れた評価を行った。
論文 参考訳(メタデータ) (2024-06-06T16:31:47Z) - Exploring Parent's Needs for Children-Centered AI to Support Preschoolers' Interactive Storytelling and Reading Activities [52.828843153565984]
AIベースのストーリーテリングと読書技術は、幼児の生活の中でますます普及しつつある。
本稿では,実践的なストーリーテリングや読書のシナリオでどのように機能するか,親,最も重要な利害関係者,経験,知覚について考察する。
我々の研究結果は、AIベースのストーリーテリングと読書技術は、より没入的で活発な相互作用を提供するが、一連の対話的でアルゴリズム的な課題のために、両親の期待を満たすことはできないことを示唆している。
論文 参考訳(メタデータ) (2024-01-24T20:55:40Z) - OPERA: Harmonizing Task-Oriented Dialogs and Information Seeking
Experience [87.0233567695073]
会話型AIにおける既存の研究は、主にタスク指向対話(TOD)と質問応答(QA)を別々のタスクとして扱う。
そこで我々は,TODとQAタスクを組み合わせた新たなタスクであるOpen-Book TOD (OB-TOD)を提案する。
我々は,そのタスクに対処するために,明示的で暗黙的な外部知識を適切にアクセス可能な統一モデルOPERAを提案する。
論文 参考訳(メタデータ) (2022-06-24T18:21:26Z) - Asking for Knowledge: Training RL Agents to Query External Knowledge
Using Language [121.56329458876655]
グリッドワールドベースのQ-BabyAIとテキストベースのQ-TextWorldの2つの新しい環境を紹介した。
本稿では,意味のある知識を問うための言語コマンドを生成する「知識の探索(AFK)」エージェントを提案する。
論文 参考訳(メタデータ) (2022-05-12T14:20:31Z) - Fantastic Questions and Where to Find Them: FairytaleQA -- An Authentic
Dataset for Narrative Comprehension [136.82507046638784]
幼稚園児の物語理解に焦点を当てたデータセットであるFairytaleQAを8年生に紹介する。
FairytaleQAは10,580の明示的で暗黙的な質問で構成されており、278の子供フレンドリーな物語から導かれる。
論文 参考訳(メタデータ) (2022-03-26T00:20:05Z) - TegTok: Augmenting Text Generation via Task-specific and Open-world
Knowledge [83.55215993730326]
本稿では,タスク固有およびオープンワールド知識(TegTok)によるTExt生成の統一化を提案する。
本モデルでは,2種類の知識ソースからの知識エントリを高密度検索により選択し,それぞれ入力エンコーディングと出力デコーディングの段階に注入する。
論文 参考訳(メタデータ) (2022-03-16T10:37:59Z) - It is AI's Turn to Ask Human a Question: Question and Answer Pair
Generation for Children Storybooks in FairytaleQA Dataset [30.557699346777582]
教育応用においては、教師や親は、言語学習結果を最大化できる子どもにどんな質問をすべきか分からないことがある。
新たにリリースされた書籍QAデータセット(FairytaleQA)を用いて,本アプリケーションのための自動QA生成モデルアーキテクチャを開発した。
論文 参考訳(メタデータ) (2021-09-08T04:11:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。