論文の概要: Method and Dataset Entity Mining in Scientific Literature: A CNN +
Bi-LSTM Model with Self-attention
- arxiv url: http://arxiv.org/abs/2010.13583v2
- Date: Thu, 28 Jan 2021 02:33:37 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-02 19:05:31.060177
- Title: Method and Dataset Entity Mining in Scientific Literature: A CNN +
Bi-LSTM Model with Self-attention
- Title(参考訳): 科学的文献におけるメソッドとデータセットエンティティマイニング:自己注意型CNN+Bi-LSTMモデル
- Authors: Linlin Hou, Ji Zhang, Ou Wu, Ting Yu, Zhen Wang, Zhao Li, Jianliang
Gao, Yingchun Ye, Rujing Yao
- Abstract要約: MDERと呼ばれる新しいエンティティ認識モデルを提案し、科学的論文から効果的にメソッドとデータセットを抽出することができる。
我々は,NLP,CV,データマイニング,AIの4つの研究分野の論文から構築したデータセットのモデルを評価する。
- 参考スコア(独自算出の注目度): 21.93889297841459
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Literature analysis facilitates researchers to acquire a good understanding
of the development of science and technology. The traditional literature
analysis focuses largely on the literature metadata such as topics, authors,
abstracts, keywords, references, etc., and little attention was paid to the
main content of papers. In many scientific domains such as science, computing,
engineering, etc., the methods and datasets involved in the scientific papers
published in those domains carry important information and are quite useful for
domain analysis as well as algorithm and dataset recommendation. In this paper,
we propose a novel entity recognition model, called MDER, which is able to
effectively extract the method and dataset entities from the main textual
content of scientific papers. The model utilizes rule embedding and adopts a
parallel structure of CNN and Bi-LSTM with the self-attention mechanism. We
evaluate the proposed model on datasets which are constructed from the
published papers of four research areas in computer science, i.e., NLP, CV,
Data Mining and AI. The experimental results demonstrate that our model
performs well in all the four areas and it features a good learning capacity
for cross-area learning and recognition. We also conduct experiments to
evaluate the effectiveness of different building modules within our model which
indicate that the importance of different building modules in collectively
contributing to the good entity recognition performance as a whole. The data
augmentation experiments on our model demonstrated that data augmentation
positively contributes to model training, making our model much more robust in
dealing with the scenarios where only small number of training samples are
available. We finally apply our model on PAKDD papers published from 2009-2019
to mine insightful results from scientific papers published in a longer time
span.
- Abstract(参考訳): 文献分析は、研究者が科学と技術の発達をよく理解することを促進する。
従来の文献分析は、主にトピック、著者、要約、キーワード、参照など文学のメタデータに焦点が当てられ、論文の主要な内容にはほとんど注目されなかった。
科学、計算、工学などの多くの科学分野において、これらの領域で発行される科学論文にかかわる方法やデータセットは重要な情報を持ち、アルゴリズムやデータセットの推薦と同様にドメイン分析に非常に役立つ。
本稿では,科学論文の主文内容から,その方法とデータセットを効果的に抽出できる,mderと呼ばれる新しいエンティティ認識モデルを提案する。
このモデルはルール埋め込みを利用し、自己保持機構を備えたCNNとBi-LSTMの並列構造を採用する。
計算機科学における4つの研究領域(nlp,cv,データマイニング,ai)の論文から得られたデータセットに関する提案モデルを評価する。
実験結果から,本モデルは4分野すべてで良好に動作し,クロスエリア学習と認識に優れた学習能力を有することが示された。
また、モデル内の異なるビルディングモジュールの有効性を評価する実験を行い、異なるビルディングモジュールの重要性が全体として優れたエンティティ認識性能に寄与していることを示します。
私たちのモデルにおけるデータ拡張実験は、データ拡張がモデルのトレーニングにプラスに寄与することを示しました。
2009~2019年に発行されたPAKDD論文に、最終的に我々のモデルを適用し、より長い時間で発行された科学論文から洞察に富んだ結果を得る。
関連論文リスト
- A Survey on Data Selection for Language Models [151.6210632830082]
データ選択方法は、トレーニングデータセットに含まれるデータポイントを決定することを目的としている。
ディープラーニングは、主に実証的な証拠によって駆動され、大規模なデータに対する実験は高価である。
広範なデータ選択研究のリソースを持つ組織はほとんどない。
論文 参考訳(メタデータ) (2024-02-26T18:54:35Z) - A Reliable Knowledge Processing Framework for Combustion Science using
Foundation Models [0.0]
この研究は、多様な燃焼研究データを処理し、実験研究、シミュレーション、文献にまたがるアプローチを導入している。
開発されたアプローチは、データのプライバシと精度を最適化しながら、計算と経済の費用を最小化する。
このフレームワークは、最小限の人間の監視で、常に正確なドメイン固有の応答を提供する。
論文 参考訳(メタデータ) (2023-12-31T17:15:25Z) - Learn From Model Beyond Fine-Tuning: A Survey [78.80920533793595]
Learn From Model (LFM) は、モデルインターフェースに基づいた基礎モデル(FM)の研究、修正、設計に焦点を当てている。
LFM技術の研究は、モデルチューニング、モデル蒸留、モデル再利用、メタラーニング、モデル編集の5つの分野に大別できる。
本稿では, LFM の観点から, FM に基づく現在の手法を概観する。
論文 参考訳(メタデータ) (2023-10-12T10:20:36Z) - Interactive Distillation of Large Single-Topic Corpora of Scientific
Papers [1.2954493726326113]
より堅牢だが時間を要するアプローチは、主題の専門家が文書を手書きするデータセットを構成的に構築することである。
ここでは,学術文献のターゲットデータセットを構築的に生成するための,機械学習に基づく新しいツールを紹介する。
論文 参考訳(メタデータ) (2023-09-19T17:18:36Z) - StableLLaVA: Enhanced Visual Instruction Tuning with Synthesized
Image-Dialogue Data [129.92449761766025]
本稿では,視覚的インストラクションチューニングのための画像と対話を同期的に合成する新しいデータ収集手法を提案する。
このアプローチは生成モデルのパワーを活用し、ChatGPTとテキスト・ツー・イメージ生成モデルの能力とを結合する。
本研究は,各種データセットを対象とした総合的な実験を含む。
論文 参考訳(メタデータ) (2023-08-20T12:43:52Z) - Universal Domain Adaptation from Foundation Models: A Baseline Study [58.51162198585434]
基礎モデルを用いた最先端UniDA手法の実証的研究を行った。
CLIPモデルからターゲット知識を抽出するためのパラメータフリーな手法であるtextitCLIP 蒸留を導入する。
単純な手法ではあるが、ほとんどのベンチマークタスクでは従来の手法よりも優れている。
論文 参考訳(メタデータ) (2023-05-18T16:28:29Z) - Enhancing Identification of Structure Function of Academic Articles
Using Contextual Information [6.28532577139029]
本稿では,学術論文の構造的機能を明らかにするためのコーパスとして,ACLカンファレンスの記事を取り上げる。
従来の機械学習モデルとディープラーニングモデルを用いて、様々な特徴入力に基づいて分類器を構築する。
2) に触発された本論文は,ディープラーニングモデルに文脈情報を導入し,重要な結果を得た。
論文 参考訳(メタデータ) (2021-11-28T11:21:21Z) - Interpreting Deep Knowledge Tracing Model on EdNet Dataset [67.81797777936868]
この作業では、EdNetと呼ばれる大規模で新しく利用可能なデータセット上で、同様のタスクを実行します。
予備実験の結果,解釈手法の有効性が示された。
論文 参考訳(メタデータ) (2021-10-31T07:18:59Z) - Evaluating the state-of-the-art in mapping research spaces: a Brazilian
case study [0.0]
最近の2つの研究は、科学者の出版記録から研究地図を作成する方法を提案している。
与えられたエンティティが新しいフィールドに入るかどうかを予測するモデルの能力を評価します。
これらのモデルがどのようにブラジルの文脈で科学のダイナミクスを特徴づけることができるかを示すケーススタディを実施します。
論文 参考訳(メタデータ) (2021-04-07T18:14:41Z) - Few-Shot Named Entity Recognition: A Comprehensive Study [92.40991050806544]
マルチショット設定のモデル一般化能力を向上させるための3つの手法を検討する。
ラベル付きデータの比率の異なる10の公開nerデータセットについて経験的比較を行う。
マルチショットとトレーニングフリーの両方の設定で最新の結果を作成します。
論文 参考訳(メタデータ) (2020-12-29T23:43:16Z) - CORAL: COde RepresentAtion Learning with Weakly-Supervised Transformers
for Analyzing Data Analysis [33.190021245507445]
ソースコード、特に科学的なソースコードの大規模解析は、データサイエンスのプロセスをよりよく理解する約束を持っている。
本稿では,抽象構文木と周辺自然言語コメントからコードの共同表現を計算するための,弱い教師付きトランスフォーマーベースのアーキテクチャを提案する。
本モデルでは,手軽に手軽に管理できる弱さを生かし,専門家による供給よりも38%の精度向上を実現し,ベースラインを上回ります。
論文 参考訳(メタデータ) (2020-08-28T19:57:49Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。