論文の概要: SciMRC: Multi-perspective Scientific Machine Reading Comprehension
- arxiv url: http://arxiv.org/abs/2306.14149v1
- Date: Sun, 25 Jun 2023 07:25:14 GMT
- ステータス: 処理完了
- システム内更新日: 2023-06-27 16:33:06.183025
- Title: SciMRC: Multi-perspective Scientific Machine Reading Comprehension
- Title(参考訳): SciMRC: マルチパースペクティブな科学機械読解
- Authors: Xiao Zhang, Heqi Zheng, Yuxiang Nie, Heyan Huang, Xian-Ling Mao
- Abstract要約: 本稿では,SciMRCと呼ばれる新しい多視点科学機械読解データセットを提案する。
提案するSciMRCは,741の学術論文と6,057の質問応答対から構成されている。
初心者,学生,専門家の各視点は,それぞれ3,306対,1,800対,951対である。
- 参考スコア(独自算出の注目度): 37.7749857390601
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Scientific machine reading comprehension (SMRC) aims to understand scientific
texts through interactions with humans by given questions. As far as we know,
there is only one dataset focused on exploring full-text scientific machine
reading comprehension. However, the dataset has ignored the fact that different
readers may have different levels of understanding of the text, and only
includes single-perspective question-answer pairs, leading to a lack of
consideration of different perspectives. To tackle the above problem, we
propose a novel multi-perspective SMRC dataset, called SciMRC, which includes
perspectives from beginners, students and experts. Our proposed SciMRC is
constructed from 741 scientific papers and 6,057 question-answer pairs. Each
perspective of beginners, students and experts contains 3,306, 1,800 and 951 QA
pairs, respectively. The extensive experiments on SciMRC by utilizing
pre-trained models suggest the importance of considering perspectives of SMRC,
and demonstrate its challenging nature for machine comprehension.
- Abstract(参考訳): 科学機械読解(Scientific Machine reading comprehension, SMRC)は、人間との対話を通じて科学的テキストを理解することを目的としている。
私たちが知る限り、フルテキストの科学機械の理解を探求するデータセットは1つしかない。
しかし、データセットは、異なる読者がテキストの理解レベルが異なる可能性があるという事実を無視しており、単一のパースペクティブな質問応答ペアしか含まないため、異なる視点の考慮が欠如している。
上記の課題に対処するために,初心者,学生,専門家の視点を含む,SciMRCと呼ばれる新しい多視点SMRCデータセットを提案する。
提案するsimrcは、741の論文と6,057の質問応答対からなる。
初心者,学生,専門家の各視点は,それぞれ3,306対,1,800対,951対である。
事前学習モデルを用いたSciMRCに関する広範な実験は、SMRCの観点を考えることの重要性を示唆し、マシン理解におけるその挑戦的な性質を示している。
関連論文リスト
- SciDQA: A Deep Reading Comprehension Dataset over Scientific Papers [20.273439120429025]
SciDQAは、科学論文の深い理解のためにLSMに挑戦する、理解を読むための新しいデータセットである。
他の科学的QAデータセットとは異なり、SciDQAはドメインの専門家によるピアレビューや論文の著者による回答から質問を出している。
SciDQAの質問は、図、表、方程式、付属品、補足材料にまたがる推論を必要とする。
論文 参考訳(メタデータ) (2024-11-08T05:28:22Z) - SPIQA: A Dataset for Multimodal Question Answering on Scientific Papers [43.18330795060871]
SPIQAは、科学研究論文の文脈内で複雑な図形や表を解釈するために設計されたデータセットである。
データセット作成には自動および手動のキュレーションを使用します。
SPIQAは270Kの質問をトレーニング、検証、3つの異なる評価分割に分割する。
論文 参考訳(メタデータ) (2024-07-12T16:37:59Z) - Interpreting Themes from Educational Stories [9.608135094187912]
本稿では,教育物語の解釈的理解に特化して設計された最初のデータセットを紹介する。
データセットはさまざまなジャンルや文化的な起源にまたがっており、人間に注釈を付けたテーマキーワードを含んでいる。
我々は、物語の主観に向けて解釈的理解の異なる抽象概念の下でNLPタスクを定式化する。
論文 参考訳(メタデータ) (2024-04-08T07:26:27Z) - SciInstruct: a Self-Reflective Instruction Annotated Dataset for Training Scientific Language Models [57.96527452844273]
我々はSciInstructを紹介した。SciInstructは、大学レベルの科学的推論が可能な科学言語モデルを訓練するための科学指導スイートである。
我々は、物理学、化学、数学、公式な証明を含む多種多様な高品質なデータセットをキュレートした。
SciInstructの有効性を検証するため、SciInstruct、すなわちChatGLM3(6Bと32B)、Llama3-8B-Instruct、Mistral-7B: MetaMathを用いて言語モデルを微調整した。
論文 参考訳(メタデータ) (2024-01-15T20:22:21Z) - Enhancing Human-like Multi-Modal Reasoning: A New Challenging Dataset
and Comprehensive Framework [51.44863255495668]
マルチモーダル推論は、人間のような知性を示す人工知能システムの追求において重要な要素である。
提案するマルチモーダル推論(COCO-MMR)データセットは,オープンエンド質問の集合を包含する新しいデータセットである。
画像とテキストエンコーダを強化するために,マルチホップ・クロスモーダル・アテンションや文レベルのコントラスト学習などの革新的な手法を提案する。
論文 参考訳(メタデータ) (2023-07-24T08:58:25Z) - A Multiple Choices Reading Comprehension Corpus for Vietnamese Language
Education [2.5199066832791535]
ViMMRC 2.0 はベトナムのテキストブックにおける多重選択読解作業のための以前の ViMMRC の拡張である。
このデータセットには、散文と詩からなる699の読解通路と、5,273の質問がある。
我々のマルチステージモデルは、テストセットの正確性によって58.81%を達成し、これは上位のBERTologyモデルよりも5.34%良い。
論文 参考訳(メタデータ) (2023-03-31T15:54:54Z) - Multilingual Multi-Aspect Explainability Analyses on Machine Reading Comprehension Models [76.48370548802464]
本稿では,マルチヘッド自己注意と最終MRCシステム性能の関係を検討するために,一連の解析実験を実施することに焦点を当てる。
問合せ及び問合せ理解の注意が問合せプロセスにおいて最も重要なものであることが判明した。
包括的可視化とケーススタディを通じて、注意マップに関するいくつかの一般的な知見も観察し、これらのモデルがどのように問題を解くかを理解するのに役立ちます。
論文 参考訳(メタデータ) (2021-08-26T04:23:57Z) - An Experimental Study of Deep Neural Network Models for Vietnamese
Multiple-Choice Reading Comprehension [2.7528170226206443]
我々は、単語表現が機械読解に与える影響を理解するために、ニューラルネットワークに基づくモデルの実験を行う。
ベトナム語の単語埋め込みにおけるコマッチモデルと,複数字読解のためのBERTモデルについて検討した。
ViMMRCコーパスでは、BERTモデルの精度はテストセットで61.28%である。
論文 参考訳(メタデータ) (2020-08-20T07:29:14Z) - Retrospective Reader for Machine Reading Comprehension [90.6069071495214]
機械読み取り理解(英: Machine reading comprehension、MRC)とは、機械が与えられた文節に基づいて質問に対する正しい答えを決定することを要求するAIチャレンジである。
不可解な質問が MRC タスクに関与している場合、検証モジュールと呼ばれる本質的な検証モジュールがエンコーダに加えて特に必要となる。
本稿では, MRC タスクに対して, 解答不能な質問に対して, より優れた検証器設計を提案する。
論文 参考訳(メタデータ) (2020-01-27T11:14:34Z) - ORB: An Open Reading Benchmark for Comprehensive Evaluation of Machine
Reading Comprehension [53.037401638264235]
我々は,7種類の読解データセットの性能を報告する評価サーバORBを提案する。
評価サーバは、モデルのトレーニング方法に制限を課さないため、トレーニングパラダイムや表現学習の探索に適したテストベッドである。
論文 参考訳(メタデータ) (2019-12-29T07:27:23Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。