論文の概要: FA Team at the NTCIR-17 UFO Task
- arxiv url: http://arxiv.org/abs/2310.20322v1
- Date: Tue, 31 Oct 2023 09:56:12 GMT
- ステータス: 処理完了
- システム内更新日: 2023-11-01 15:46:01.841231
- Title: FA Team at the NTCIR-17 UFO Task
- Title(参考訳): ntcir-17 ufoタスクのfaチーム
- Authors: Yuki Okumura, Masato Fujitake
- Abstract要約: FAチームはNTCIR-17における表データ抽出(TDE)とテキスト・ツー・タブル関係抽出(TTRE)タスクに参加した。
本稿では,問題の解決に対する我々のアプローチを報告し,公式な結果について議論する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The FA team participated in the Table Data Extraction (TDE) and Text-to-Table
Relationship Extraction (TTRE) tasks of the NTCIR-17 Understanding of
Non-Financial Objects in Financial Reports (UFO). This paper reports our
approach to solving the problems and discusses the official results. We
successfully utilized various enhancement techniques based on the ELECTRA
language model to extract valuable data from tables. Our efforts resulted in an
impressive TDE accuracy rate of 93.43 %, positioning us in second place on the
Leaderboard rankings. This outstanding achievement is a testament to our
proposed approach's effectiveness. In the TTRE task, we proposed the rule-based
method to extract meaningful relationships between the text and tables task and
confirmed the performance.
- Abstract(参考訳): faチームは金融報告(ufo)における非金融対象のntcir-17理解のテーブルデータ抽出(tde)とテキスト対テーブル関係抽出(ttre)タスクに参加した。
本稿では,問題の解決へのアプローチを報告し,公式な結果について議論する。
我々は,ELECTRA言語モデルに基づく様々な拡張手法をうまく利用し,テーブルから貴重なデータを抽出した。
結果、TDEの精度は93.43 %となり、トップボードランキングでは2位となった。
この卓越した成果は,提案手法の有効性の証明である。
ttreタスクでは,テキストとテーブルの有意義な関係を抽出し,その性能を確認するルールベース手法を提案する。
関連論文リスト
- TART: An Open-Source Tool-Augmented Framework for Explainable Table-based Reasoning [61.14586098005874]
現在のLarge Language Models (LLM) は、テーブル構造を理解し、正確な数値推論を適用する能力に制限がある。
LLMと特殊なツールを統合するTART(Tool-Augmented Reasoning framework for Tables)を紹介した。
TARTには、正確なデータ表現を保証するテーブルフォーマッター、特定の計算ツールを開発するツールメーカー、説明可能性を維持するための説明ジェネレータの3つの重要なコンポーネントが含まれている。
論文 参考訳(メタデータ) (2024-09-18T06:19:59Z) - KET-QA: A Dataset for Knowledge Enhanced Table Question Answering [63.56707527868466]
本研究では,TableQAの外部知識源として知識ベース(KB)を用いることを提案する。
すべての質問は、答えるテーブルとサブグラフの両方からの情報を統合する必要がある。
我々は,膨大な知識サブグラフから関連する情報を抽出するために,レトリバー・レゾナー構造パイプラインモデルを設計する。
論文 参考訳(メタデータ) (2024-05-13T18:26:32Z) - iTBLS: A Dataset of Interactive Conversations Over Tabular Information [2.9665568096804846]
iTBLSは、科学論文の表にある対話的な会話のデータセットである。
iTBLSは相互作用の範囲を広げ、数学的推論、自然言語操作、既存のテーブルを自然言語会話から拡張する。
論文 参考訳(メタデータ) (2024-04-19T02:11:41Z) - Enabling and Analyzing How to Efficiently Extract Information from
Hybrid Long Documents with LLMs [48.87627426640621]
本研究は,財務報告から重要な情報を理解するために,大規模言語モデルの可能性を活用することに焦点を当てる。
財務報告から情報を理解し抽出するLLMの能力を高める自動財務情報抽出フレームワークを提案する。
本フレームワークは, GPT-3.5とGPT-4で有効に検証され, 平均精度は53.94%, 33.77%向上した。
論文 参考訳(メタデータ) (2023-05-24T10:35:58Z) - Doc2SoarGraph: Discrete Reasoning over Visually-Rich Table-Text
Documents via Semantic-Oriented Hierarchical Graphs [79.0426838808629]
視覚的にリッチなテーブルテキスト文書に答えるTAT-DQAを提案する。
具体的には、離散推論機能を強化した新しいDoc2SoarGraphフレームワークを提案する。
我々は,TAT-DQAデータセットに関する広範な実験を行い,提案したフレームワークは,テストセット上でのエクサクティマッチ(EM)とF1スコアでそれぞれ17.73%,F1スコアで16.91%の最高のベースラインモデルを上回る結果を得た。
論文 参考訳(メタデータ) (2023-05-03T07:30:32Z) - Volta at SemEval-2021 Task 9: Statement Verification and Evidence
Finding with Tables using TAPAS and Transfer Learning [19.286478269708592]
本稿では,SemEval-2021のタスク9:表によるステートメント検証とエビデンス検索を解くためのシステムを提案する。
タスクは2つのサブタスクから構成される: (A) テーブルとステートメントを付与し、テーブルがステートメントをサポートするかどうかを予測し、(B) テーブル内のどのセルがステートメントの証拠を提供するかを予測する。
サブタスクではF1スコアが67.34、サブタスクでは72.89、サブタスクBでは62.95である。
論文 参考訳(メタデータ) (2021-06-01T06:06:29Z) - SemEval-2021 Task 9: Fact Verification and Evidence Finding for Tabular
Data in Scientific Documents (SEM-TAB-FACTS) [0.0]
SEM-TAB-FACTSは2つのサブタスクを備えていた。
サブタスクAでは、テーブルに関して文がサポートされているか、否定されているか、不明かを決定することが目標である。
サブタスクBでは、声明の証拠を提供するテーブルの特定の細胞を特定することに重点が置かれた。
論文 参考訳(メタデータ) (2021-05-28T17:21:11Z) - Tab.IAIS: Flexible Table Recognition and Semantic Interpretation System [84.39812458417246]
完全テーブル認識処理を行い、最も頻繁なテーブル形式をサポートする2つのルールベースのアルゴリズムを開発する。
意味情報の抽出をテーブル認識プロセスに組み込むため,グラフに基づくテーブル解釈法を開発した。
我々のテーブル認識アプローチは、最先端のアプローチと競合する結果を得る。
論文 参考訳(メタデータ) (2021-05-25T12:31:02Z) - Sattiy at SemEval-2021 Task 9: An Ensemble Solution for Statement
Verification and Evidence Finding with Tables [4.691435917434472]
本稿では,SemEval-2021 タスク 9: Statement Verification and Evidence Finding with Tables (SEM-TAB-FACT) における満足のいくチームのシステムについて述べる。
この競争は、声明の検証と科学論文の表から証拠を見つけることを目的としている。
本論文では、タスクAのテーブル、TaPas、TaBERT上の学習済み言語モデルのアンサンブルモデルを活用し、タスクBで抽出されたいくつかのルールに基づいて結果を調整する。
論文 参考訳(メタデータ) (2021-04-21T06:11:49Z) - Explaining Relationships Between Scientific Documents [55.23390424044378]
本稿では,2つの学術文書間の関係を自然言語テキストを用いて記述する課題に対処する。
本稿では154K文書から622Kサンプルのデータセットを作成する。
論文 参考訳(メタデータ) (2020-02-02T03:54:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。