論文の概要: MaTableGPT: GPT-based Table Data Extractor from Materials Science Literature
- arxiv url: http://arxiv.org/abs/2406.05431v1
- Date: Sat, 8 Jun 2024 10:31:18 GMT
- ステータス: 処理完了
- システム内更新日: 2024-06-11 19:45:22.152267
- Title: MaTableGPT: GPT-based Table Data Extractor from Materials Science Literature
- Title(参考訳): MaTableGPT: GPTベースのテーブルデータエクストラクタ
- Authors: Gyeong Hoon Yi, Jiwoo Choi, Hyeongyun Song, Olivia Miano, Jaewoong Choi, Kihoon Bang, Byungju Lee, Seok Su Sohn, David Buttler, Anna Hiszpanski, Sang Soo Han, Donghun Kim,
- Abstract要約: MaTableGPTは、材料科学文献からGPTベースのテーブルデータ抽出器である。
MaTableGPTは、テーブルデータ表現とテーブル分割のキー戦略を特徴とし、GPTの理解を深める。
MaTableGPTは96.8%までの抽出精度(全F1スコア)を達成した。
- 参考スコア(独自算出の注目度): 3.112601971471553
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Efficiently extracting data from tables in the scientific literature is pivotal for building large-scale databases. However, the tables reported in materials science papers exist in highly diverse forms; thus, rule-based extractions are an ineffective approach. To overcome this challenge, we present MaTableGPT, which is a GPT-based table data extractor from the materials science literature. MaTableGPT features key strategies of table data representation and table splitting for better GPT comprehension and filtering hallucinated information through follow-up questions. When applied to a vast volume of water splitting catalysis literature, MaTableGPT achieved an extraction accuracy (total F1 score) of up to 96.8%. Through comprehensive evaluations of the GPT usage cost, labeling cost, and extraction accuracy for the learning methods of zero-shot, few-shot and fine-tuning, we present a Pareto-front mapping where the few-shot learning method was found to be the most balanced solution owing to both its high extraction accuracy (total F1 score>95%) and low cost (GPT usage cost of 5.97 US dollars and labeling cost of 10 I/O paired examples). The statistical analyses conducted on the database generated by MaTableGPT revealed valuable insights into the distribution of the overpotential and elemental utilization across the reported catalysts in the water splitting literature.
- Abstract(参考訳): 科学文献の表から効率的にデータを抽出することは、大規模データベースを構築する上で重要である。
しかし、物質科学論文に報告されている表は、非常に多様な形で存在するため、ルールベースの抽出は非効率なアプローチである。
この課題を克服するために,材料科学文献からGPTベースのテーブルデータ抽出装置であるMaTableGPTを提案する。
MaTableGPTは、テーブルデータ表現とテーブル分割の鍵となる戦略を特徴とし、GPTの理解を改善し、フォローアップ質問を通じて幻覚情報をフィルタリングする。
大量の水分解触媒の文献に適用すると、MaTableGPTは96.8%の抽出精度(全F1スコア)を達成した。
ゼロショット, 少数ショット, 微調整の学習方法について, GPT使用コスト, ラベル付けコスト, 抽出精度を総合的に評価することにより, 高抽出精度(F1スコア>95%)と低コスト(GPT使用コスト5.97USドル, ラベル付けコスト10I/Oペア化例)の両面から, 少ショット学習法が最もバランスの取れた解であることが判明したパレートフロントマッピングを提案する。
MaTableGPT が生成したデータベース上で行った統計分析により,水分離文学において報告された触媒間での過電位および元素利用の分布について,貴重な知見が得られた。
関連論文リスト
- Statements: Universal Information Extraction from Tables with Large Language Models for ESG KPIs [18.401579353633807]
環境、社会、ガバナンス(ESG)は、気候変動などの問題において組織のパフォーマンスを評価する。
ESGレポートは、この貴重な量的情報をテーブルを通して伝達する。
本稿では,量的事実や関連情報を抽出するドメインに依存しない新しいデータ構造であるステートメントを提案する。
論文 参考訳(メタデータ) (2024-06-27T11:28:50Z) - Uncovering Limitations of Large Language Models in Information Seeking from Tables [28.19697259795014]
本稿では,テーブル情報探索(TabIS)のための信頼性の高いベンチマークを紹介する。
テキスト類似度に基づくメトリクスによる信頼性の低い評価を避けるため、TabISはテキスト生成フォーマットではなく、単一選択の質問フォーマット(質問毎に2つのオプション)を採用する。
論文 参考訳(メタデータ) (2024-06-06T14:30:59Z) - KET-QA: A Dataset for Knowledge Enhanced Table Question Answering [63.56707527868466]
本研究では,TableQAの外部知識源として知識ベース(KB)を用いることを提案する。
すべての質問は、答えるテーブルとサブグラフの両方からの情報を統合する必要がある。
我々は,膨大な知識サブグラフから関連する情報を抽出するために,レトリバー・レゾナー構造パイプラインモデルを設計する。
論文 参考訳(メタデータ) (2024-05-13T18:26:32Z) - Interpretable Medical Diagnostics with Structured Data Extraction by
Large Language Models [59.89454513692417]
タブラルデータはしばしばテキストに隠され、特に医学的診断報告に使用される。
本稿では,TEMED-LLM と呼ばれるテキスト医療報告から構造化表状データを抽出する手法を提案する。
本手法は,医学診断における最先端のテキスト分類モデルよりも優れていることを示す。
論文 参考訳(メタデータ) (2023-06-08T09:12:28Z) - Schema-Driven Information Extraction from Heterogeneous Tables [37.50854811537401]
本稿では、機械学習論文、化学文献、材料科学雑誌、ウェブページの4つの分野のテーブルからなるベンチマークを示す。
我々の実験は、タスク固有のパイプラインやラベルを必要とせずに、驚くほど競争力のあるパフォーマンスが達成できることを示した。
論文 参考訳(メタデータ) (2023-05-23T17:58:10Z) - Generative Table Pre-training Empowers Models for Tabular Prediction [71.76829961276032]
本稿では,テーブル事前学習を利用した最初の試みであるTapTapを提案する。
TapTapは、プライバシ保護、リソースの低さ、価値計算の欠如、不均衡な分類など、さまざまなアプリケーションをサポートするための高品質な合成テーブルを生成することができる。
LightGBM、Multilayer Perceptron (MLP)、Transformerなどのバックボーンモデルと簡単に組み合わせることができる。
論文 参考訳(メタデータ) (2023-05-16T06:37:38Z) - Flexible, Model-Agnostic Method for Materials Data Extraction from Text Using General Purpose Language Models [5.748877272090607]
大規模言語モデル(LLM)は、人間がテキストと対話する方法を変えつつある。
本研究では,全文研究論文から資料データを抽出する簡便かつ効率的な手法を実証する。
このアプローチでは、抽出されたプロパティに関するコーディングや事前の知識は最小限から不要である。
結果のデータベースにおいて、高いリコールとほぼ完璧な精度を提供する。
論文 参考訳(メタデータ) (2023-02-09T19:56:37Z) - DiSCoMaT: Distantly Supervised Composition Extraction from Tables in
Materials Science Articles [25.907266860321727]
材料科学論文の表から素材の組成を抽出する新しいNLPタスクを定義する。
遠隔操作型テーブル4,408、手動で注釈付けされた開発およびテストテーブル1,475からなるトレーニングデータセットをリリースする。
DisCOMATは最近のテーブル処理アーキテクチャよりも大幅に優れていることを示す。
論文 参考訳(メタデータ) (2022-07-03T17:11:17Z) - Table Retrieval May Not Necessitate Table-specific Model Design [83.27735758203089]
テーブル検索のタスクに焦点をあてて、"テーブル固有のモデル設計はテーブル検索に必要か?
自然質問データセット (NQ-table) の表に基づく分析の結果, 70%以上の症例では構造が無視できる役割を担っていることがわかった。
次に、テーブル構造、すなわち補助列/カラム埋め込み、ハードアテンションマスク、ソフトリレーションに基づくアテンションバイアスを明示的にエンコードする3つのモジュールを実験する。
いずれも大きな改善は得られず、テーブル固有のモデル設計がテーブル検索に不要である可能性が示唆された。
論文 参考訳(メタデータ) (2022-05-19T20:35:23Z) - Tab.IAIS: Flexible Table Recognition and Semantic Interpretation System [84.39812458417246]
完全テーブル認識処理を行い、最も頻繁なテーブル形式をサポートする2つのルールベースのアルゴリズムを開発する。
意味情報の抽出をテーブル認識プロセスに組み込むため,グラフに基づくテーブル解釈法を開発した。
我々のテーブル認識アプローチは、最先端のアプローチと競合する結果を得る。
論文 参考訳(メタデータ) (2021-05-25T12:31:02Z) - TAT-QA: A Question Answering Benchmark on a Hybrid of Tabular and
Textual Content in Finance [71.76018597965378]
TAT-QAと呼ばれるタブラデータとテクスチャデータの両方を含む新しい大規模な質問応答データセットを構築します。
本稿では,テーブルとテキストの両方を推論可能な新しいQAモデルであるTAGOPを提案する。
論文 参考訳(メタデータ) (2021-05-17T06:12:06Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。