論文の概要: Automated Feedback Generation for a Chemistry Database and Abstracting
Exercise
- arxiv url: http://arxiv.org/abs/2305.18319v1
- Date: Mon, 22 May 2023 15:04:26 GMT
- ステータス: 処理完了
- システム内更新日: 2023-06-04 11:29:48.126815
- Title: Automated Feedback Generation for a Chemistry Database and Abstracting
Exercise
- Title(参考訳): 化学データベースのための自動フィードバック生成と抽象運動
- Authors: Oscar Morris, Russell Morris
- Abstract要約: このデータセットには2年連続で207件の論文が含まれており、21の論文が一次文献からまとめられている。
モデルは利用可能なデータセット(約15,000のサンプル)を使用して事前トレーニングされ、送信されたデータセットの80%で微調整された。
学生が提出した文章は、背景、技法、観察の3つのクラスに特徴づけられる。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: Timely feedback is an important part of teaching and learning. Here we
describe how a readily available neural network transformer (machine-learning)
model (BERT) can be used to give feedback on the structure of the response to
an abstracting exercise where students are asked to summarise the contents of a
published article after finding it from a publication database. The dataset
contained 207 submissions from two consecutive years of the course, summarising
a total of 21 different papers from the primary literature. The model was
pre-trained using an available dataset (approx. 15,000 samples) and then
fine-tuned on 80% of the submitted dataset. This fine tuning was seen to be
important. The sentences in the student submissions are characterised into
three classes - background, technique and observation - which allows a
comparison of how each submission is structured. Comparing the structure of the
students' abstract a large collection of those from the PubMed database shows
that students in this exercise concentrate more on the background to the paper
and less on the techniques and results than the abstracts to papers themselves.
The results allowed feedback for each submitted assignment to be automatically
generated.
- Abstract(参考訳): タイムリーなフィードバックは教育と学習の重要な部分です。
本稿では,公開データベースから検索した論文の内容の要約を学生に依頼した要約演習に対する応答構造に対するフィードバックとして,容易に利用可能なニューラルネットワークトランスフォーマー(機械学習)モデル(bert)について述べる。
このデータセットには2年連続で207件の論文が含まれており、21の論文が一次文献からまとめられている。
モデルは利用可能なデータセット(約15,000のサンプル)を使用して事前トレーニングされ、送信されたデータセットの80%で微調整された。
この微調整は重要であると思われた。
学生の応募文は、背景、技法、観察の3つのクラスに分けられ、それぞれの応募がどのように構成されているかを比較することができる。
PubMedデータベースからの学生の要約の構造を比較すると、この演習の学生は論文の背景に集中し、論文自体の抽象化よりも技術や結果に重点を置いていることが分かる。
その結果、提出された各割り当てに対するフィードバックが自動的に生成されるようになった。
関連論文リスト
- A Large Scale Search Dataset for Unbiased Learning to Rank [51.97967284268577]
我々は、非バイアス学習のためのBaidu-ULTRデータセットをランク付けする。
ランダムに12億の検索セッションと7,008のエキスパートアノテートクエリをサンプリングする。
1)本来のセマンティックな特徴と,使用が容易な事前学習言語モデル,(2)位置,表示高さ,抽象表現などの十分な表示情報,(3)居住時間のような検索結果ページ(SERP)に対するリッチなユーザフィードバックを提供する。
論文 参考訳(メタデータ) (2022-07-07T02:37:25Z) - Neural Content Extraction for Poster Generation of Scientific Papers [84.30128728027375]
科学論文のポスター生成の問題は未解明である。
これまでの研究は主にポスターレイアウトとパネル構成に重点を置いていたが、コンテンツ抽出の重要性は無視された。
ポスターパネルのテキスト要素と視覚要素の両方を得るために,紙セクションのテキスト,図形,テーブルを同時に抽出するニューラル抽出モデルを提案する。
論文 参考訳(メタデータ) (2021-12-16T01:19:37Z) - Subjective Bias in Abstractive Summarization [11.675414451656568]
主観的バイアスと同じ内容を要約する複数の表現の相違を定式化し、抽象的要約の文脈におけるこのバイアスの役割について検討する。
スタイルクラスタ化されたデータセットに基づいてトレーニングされた要約モデルの結果は、より収束性、抽象化、一般化につながるある種のスタイルが存在することを示している。
論文 参考訳(メタデータ) (2021-06-18T12:17:55Z) - Automated News Summarization Using Transformers [4.932130498861987]
我々は,テキスト要約のためのトランスフォーマーアーキテクチャに基づく事前学習モデルについて,包括的に比較する。
分析と比較のために,要約や人為的な要約に使用できるテキストデータを含むBBCニュースデータセットを用いた。
論文 参考訳(メタデータ) (2021-04-23T04:22:33Z) - Improving Zero and Few-Shot Abstractive Summarization with Intermediate
Fine-tuning and Data Augmentation [101.26235068460551]
大規模テキストコーパス上での自己教師対象による事前学習モデルは、英語テキスト要約タスクにおける最先端のパフォーマンスを達成する。
モデルは通常、数十万のデータポイントで微調整されるが、これは新しいニッチなドメインに要約を適用する際に、実現不可能な要件である。
我々は、教師なし、データセット固有の方法で要約のための訓練済みモデルを微調整するための、WikiTransferと呼ばれる新しい一般化可能な手法を紹介した。
論文 参考訳(メタデータ) (2020-10-24T08:36:49Z) - Abstractive Summarization of Spoken and Written Instructions with BERT [66.14755043607776]
本稿では,BERTSumモデルの最初の対話型言語への応用について述べる。
我々は多種多様な話題にまたがるナレーションビデオの抽象要約を生成する。
我々は、これをインテリジェントな仮想アシスタントの機能として統合し、要求に応じて文字と音声の両方の指導内容の要約を可能にすることを想定する。
論文 参考訳(メタデータ) (2020-08-21T20:59:34Z) - Few-Shot Learning for Opinion Summarization [117.70510762845338]
オピニオン要約は、複数の文書で表現された主観的な情報を反映したテキストの自動生成である。
本研究では,要約テキストの生成をブートストラップするのには,少数の要約でも十分であることを示す。
提案手法は, 従来の抽出法および抽象法を, 自動的, 人的評価において大きく上回っている。
論文 参考訳(メタデータ) (2020-04-30T15:37:38Z) - Pre-training for Abstractive Document Summarization by Reinstating
Source Text [105.77348528847337]
本稿では,Seq2Seqに基づく非ラベルテキストによる抽象要約モデルの事前学習を可能にする3つの事前学習目標を提案する。
2つのベンチマーク要約データセットの実験では、3つの目的がすべてベースラインでパフォーマンスを向上させることが示されている。
論文 参考訳(メタデータ) (2020-04-04T05:06:26Z) - Abstractive Summarization for Low Resource Data using Domain Transfer
and Data Synthesis [1.148539813252112]
本稿では,近年の抽象的な要約手法の性能向上のために,ドメイン転送とデータ合成について検討する。
新聞データに基づいて訓練された美術モデルのチューニング状態は、学生の反射データの性能を高める可能性があることを示す。
トレーニングに組み込むとROUGEスコアがさらに増加するテンプレートベースの新しいデータを合成するモデルを提案する。
論文 参考訳(メタデータ) (2020-02-09T17:49:08Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。