論文の概要: Data Augmented Pipeline for Legal Information Extraction and Reasoning
- arxiv url: http://arxiv.org/abs/2601.05609v1
- Date: Fri, 09 Jan 2026 08:02:54 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-12 17:41:49.903939
- Title: Data Augmented Pipeline for Legal Information Extraction and Reasoning
- Title(参考訳): 法的情報抽出・推論のためのデータ拡張パイプライン
- Authors: Nguyen Minh Phuong, Ha-Thanh Nguyen, May Myo Zin, Ken Satoh,
- Abstract要約: 本稿では,Large Language Models (LLMs) を法域内の情報抽出タスクにおけるデータ拡張に活用するパイプラインを提案する。
提案手法は単純かつ効果的であり,情報抽出システムの堅牢性を高めつつ,データアノテーションに必要な手作業を大幅に削減する。
- 参考スコア(独自算出の注目度): 1.177734164142814
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In this paper, we propose a pipeline leveraging Large Language Models (LLMs) for data augmentation in Information Extraction tasks within the legal domain. The proposed method is both simple and effective, significantly reducing the manual effort required for data annotation while enhancing the robustness of Information Extraction systems. Furthermore, the method is generalizable, making it applicable to various Natural Language Processing (NLP) tasks beyond the legal domain.
- Abstract(参考訳): 本稿では,Large Language Models (LLMs) を利用して,法域内の情報抽出タスクにおけるデータ拡張を行うパイプラインを提案する。
提案手法は単純かつ効果的であり,情報抽出システムの堅牢性を高めつつ,データアノテーションに必要な手作業を大幅に削減する。
さらに、この方法は一般化可能であり、法域を超えた様々な自然言語処理(NLP)タスクに適用できる。
関連論文リスト
- Graphical Reasoning: LLM-based Semi-Open Relation Extraction [3.2586315449885106]
GPT-3.5でテキスト内学習を活用すれば,抽出プロセスが大幅に向上することを示す。
本稿では,関係抽出を逐次的なサブタスクに分解する新しい図式推論手法を提案する。
論文 参考訳(メタデータ) (2024-04-30T21:41:53Z) - Kun: Answer Polishment for Chinese Self-Alignment with Instruction Back-Translation [30.053409671898933]
Kunは、手動のアノテーションに頼ることなく、大きな言語モデル(LLM)のための高品質な命令チューニングデータセットを作成するための新しいアプローチである。
我々は、Wudao、Wanjuan、SkyPileなど、さまざまな情報源から収集された不正なデータを活用して、100万以上の中国語の命令データポイントの実質的なデータセットを生成します。
論文 参考訳(メタデータ) (2024-01-12T09:56:57Z) - Benchmarking Large Language Models with Augmented Instructions for
Fine-grained Information Extraction [46.09887436555637]
本稿では,Large Language Models (LLMs) に適した微細なIEベンチマークデータセットを提案する。
本研究では,エンコーダ・デコーダモデル,特にT5およびFLAN-T5の広範な評価により,未知の情報型への一般化が期待できる。
論文 参考訳(メタデータ) (2023-10-08T09:41:18Z) - STAR: Boosting Low-Resource Information Extraction by Structure-to-Text
Data Generation with Large Language Models [56.27786433792638]
STARは大規模言語モデル(LLM)を利用してデータインスタンスを合成するデータ生成手法である。
我々は、初期データインスタンスを取得するための詳細なステップバイステップ命令を設計する。
実験の結果,STARが生成したデータは,低リソースイベント抽出および関係抽出タスクの性能を著しく向上させることがわかった。
論文 参考訳(メタデータ) (2023-05-24T12:15:19Z) - Beyond Rule-based Named Entity Recognition and Relation Extraction for
Process Model Generation from Natural Language Text [0.0]
既存のパイプラインを拡張して、完全にデータ駆動にします。
改善されたパイプラインの競争力を示す。これは、機能エンジニアリングとルール定義に関連するかなりのオーバーヘッドを取り除くだけでなく、改善されたパイプラインの競争力も排除します。
本稿では,言語参照に関する情報を取り入れたPETデータセットの拡張と,それを解決する方法を提案する。
論文 参考訳(メタデータ) (2023-05-06T07:06:47Z) - Improving Keyphrase Extraction with Data Augmentation and Information
Filtering [67.43025048639333]
キーフレーズ抽出はNLPにおける文書理解に不可欠なタスクの1つである。
本稿では,Behanceプラットフォーム上でストリームされたビデオからキーフレーズを抽出するための新しいコーパスと手法を提案する。
論文 参考訳(メタデータ) (2022-09-11T22:38:02Z) - PET: A new Dataset for Process Extraction from Natural Language Text [15.16406344719132]
我々は、アクティビティ、ゲートウェイ、アクター、フロー情報に注釈を付けた、ビジネスプロセス記述の最初のコーパスを開発する。
我々は、アノテーションスキーマとガイドラインの詳細な概要や、テキストからビジネスプロセスを抽出することの難しさと難しさをベンチマークするための様々なベースラインを含む、新しいリソースを提示する。
論文 参考訳(メタデータ) (2022-03-09T16:33:59Z) - Privileged Information Dropout in Reinforcement Learning [56.82218103971113]
トレーニング中に特権情報を使用することで、機械学習システムのサンプル効率とパフォーマンスを向上させることができる。
本研究では,価値に基づく強化学習アルゴリズムとポリシーに基づく強化学習アルゴリズムに等しく適用可能なプライヴィレグ情報ドロップアウト(pid)について検討する。
論文 参考訳(メタデータ) (2020-05-19T05:32:33Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。