論文の概要: OPAD: An Optimized Policy-based Active Learning Framework for Document
Content Analysis
- arxiv url: http://arxiv.org/abs/2110.02069v1
- Date: Fri, 1 Oct 2021 07:40:56 GMT
- ステータス: 処理完了
- システム内更新日: 2021-10-06 14:09:17.040384
- Title: OPAD: An Optimized Policy-based Active Learning Framework for Document
Content Analysis
- Title(参考訳): opad - ドキュメントコンテンツ分析に最適化されたポリシベースのアクティブラーニングフレームワーク
- Authors: Sumit Shekhar, Bhanu Prakash Reddy Guda, Ashutosh Chaubey, Ishan
Jindal, Avanish Jain
- Abstract要約: 文書のコンテンツ検出タスクにおける能動的学習のための強化ポリシーを用いた新しいフレームワークであるtextitOPADを提案する。
フレームワークは、取得機能を学び、パフォーマンスメトリクスを最適化しながら、選択するサンプルを決定する。
本稿では,文書理解に関わる様々なタスクに対する能動的学習のためのテキストOPADフレームワークの優れた性能を示す。
- 参考スコア(独自算出の注目度): 6.159771892460152
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Documents are central to many business systems, and include forms, reports,
contracts, invoices or purchase orders. The information in documents is
typically in natural language, but can be organized in various layouts and
formats. There have been recent spurt of interest in understanding document
content with novel deep learning architectures. However, document understanding
tasks need dense information annotations, which are costly to scale and
generalize. Several active learning techniques have been proposed to reduce the
overall budget of annotation while maintaining the performance of the
underlying deep learning model. However, most of these techniques work only for
classification problems. But content detection is a more complex task, and has
been scarcely explored in active learning literature. In this paper, we propose
\textit{OPAD}, a novel framework using reinforcement policy for active learning
in content detection tasks for documents. The proposed framework learns the
acquisition function to decide the samples to be selected while optimizing
performance metrics that the tasks typically have. Furthermore, we extend to
weak labelling scenarios to further reduce the cost of annotation
significantly. We propose novel rewards to account for class imbalance and user
feedback in the annotation interface, to improve the active learning method. We
show superior performance of the proposed \textit{OPAD} framework for active
learning for various tasks related to document understanding like layout
parsing, object detection and named entity recognition. Ablation studies for
human feedback and class imbalance rewards are presented, along with a
comparison of annotation times for different approaches.
- Abstract(参考訳): ドキュメントは多くのビジネスシステムの中心であり、フォーム、レポート、契約、請求書、購入命令を含む。
ドキュメントの情報は典型的には自然言語であるが、様々なレイアウトやフォーマットで整理できる。
近年,新たなディープラーニングアーキテクチャによる文書の内容理解への関心が高まっている。
しかし、文書理解タスクには、拡張と一般化にコストがかかる密集した情報アノテーションが必要である。
基礎となるディープラーニングモデルのパフォーマンスを維持しながら、アノテーションの全体的な予算を削減するために、いくつかのアクティブな学習技術が提案されている。
しかし、これらの手法のほとんどは分類問題にのみ適用される。
しかし、コンテンツ検出はより複雑なタスクであり、アクティブな学習文献ではあまり研究されていない。
本稿では,文書の内容検出タスクにおけるアクティブラーニングのための強化ポリシーを用いた新しいフレームワークである \textit{opad} を提案する。
提案フレームワークは,タスクが通常持つパフォーマンス指標を最適化しながら,選択するサンプルを決定するための取得関数を学習する。
さらに、弱いラベリングシナリオにまで拡張し、アノテーションのコストを大幅に削減します。
本稿では,アノテーションインタフェースにおけるクラス不均衡とユーザフィードバックを考慮し,アクティブな学習方法を改善するための新たな報酬を提案する。
提案する \textit{opad} フレームワークは,レイアウト解析やオブジェクト検出,名前付きエンティティ認識など,文書理解に関連するさまざまなタスクをアクティブに学習する上で優れた性能を示す。
人間のフィードバックとクラス不均衡の報酬に対するアブレーション研究と、異なるアプローチに対する注釈時間の比較を行った。
関連論文リスト
- On Task-personalized Multimodal Few-shot Learning for Visually-rich
Document Entity Retrieval [59.25292920967197]
VDER(Few-shot document entity search)は、NLPアプリケーションにおいて重要なトピックである。
FewVEXは、エンティティレベルの少数ショットVDERの分野における将来の研究を促進するための、新しいデータセットである。
本稿では,タスクパーソナライズを効果的に実現することを中心に,タスク認識型メタラーニングベースのフレームワークを提案する。
論文 参考訳(メタデータ) (2023-11-01T17:51:43Z) - Information Extraction from Documents: Question Answering vs Token
Classification in real-world setups [0.0]
質問応答法と古典的トークン分類法を比較して,文書鍵情報抽出を行う。
我々の研究は、クリーンで比較的短いエンティティを扱う場合、トークン分類に基づくアプローチを用いるのが最善であることを示した。
論文 参考訳(メタデータ) (2023-04-21T14:43:42Z) - Document Provenance and Authentication through Authorship Classification [5.2545206693029884]
本稿では,単一文書と複数文書の分類のためのアンサンブルベースのテキスト処理フレームワークを提案する。
提案するフレームワークには,最先端のテキスト分類アルゴリズムがいくつか組み込まれている。
フレームワークは大規模なベンチマークデータセットで評価される。
論文 参考訳(メタデータ) (2023-03-02T12:26:03Z) - Active Learning for Abstractive Text Summarization [50.79416783266641]
本稿では,抽象テキスト要約におけるアクティブラーニングのための最初の効果的なクエリ戦略を提案する。
ALアノテーションにおける私たちの戦略は、ROUGEと一貫性スコアの点からモデル性能を向上させるのに役立ちます。
論文 参考訳(メタデータ) (2023-01-09T10:33:14Z) - TRIE++: Towards End-to-End Information Extraction from Visually Rich
Documents [51.744527199305445]
本稿では,視覚的にリッチな文書からエンド・ツー・エンドの情報抽出フレームワークを提案する。
テキスト読み出しと情報抽出は、よく設計されたマルチモーダルコンテキストブロックを介して互いに強化することができる。
フレームワークはエンドツーエンドのトレーニング可能な方法でトレーニングでき、グローバルな最適化が達成できる。
論文 参考訳(メタデータ) (2022-07-14T08:52:07Z) - Unified Pretraining Framework for Document Understanding [52.224359498792836]
文書理解のための統合事前学習フレームワークであるUDocを紹介する。
UDocは、ほとんどのドキュメント理解タスクをサポートするように設計されており、Transformerを拡張してマルチモーダル埋め込みを入力とする。
UDocの重要な特徴は、3つの自己管理的損失を利用して汎用的な表現を学ぶことである。
論文 参考訳(メタデータ) (2022-04-22T21:47:04Z) - Assisted Text Annotation Using Active Learning to Achieve High Quality
with Little Effort [9.379650501033465]
研究者は、手動の注釈だけで、大規模で高品質な注釈付きデータセットを作成できるツールを提案する。
我々は、アクティブラーニング(AL)アプローチと事前訓練された言語モデルを組み合わせて、アノテーションカテゴリを半自動で識別する。
予備的な結果から,ALを用いることで,複雑なフレームや微妙なフレームを正しく分類するアノテーションの数が大幅に削減されることがわかった。
論文 参考訳(メタデータ) (2021-12-15T13:14:58Z) - Knowledge-Aware Meta-learning for Low-Resource Text Classification [87.89624590579903]
本稿では,低リソーステキスト分類問題について検討し,メタトレーニングとメタテストのギャップを埋める。
抽出した文固有知識グラフから学習した各文に対する追加表現を提案する。
論文 参考訳(メタデータ) (2021-09-10T07:20:43Z) - Dynamic Semantic Matching and Aggregation Network for Few-shot Intent
Detection [69.2370349274216]
利用可能な注釈付き発話が不足しているため、インテント検出は困難である。
セマンティック成分はマルチヘッド自己認識によって発話から蒸留される。
本手法はラベル付きインスタンスとラベルなしインスタンスの両方の表現を強化するための総合的なマッチング手段を提供する。
論文 参考訳(メタデータ) (2020-10-06T05:16:38Z) - OLALA: Object-Level Active Learning for Efficient Document Layout
Annotation [24.453873808984415]
本稿では,効率的な文書レイアウトのためのオブジェクトレベルアクティブラーニングフレームワークを提案する。
このフレームワークでは、アノテータにラベルを付けるために、画像内で最も曖昧なオブジェクト予測を行う領域のみが選択される。
選択されていない予測に対して,レイアウト構造に関する事前の知識に基づいて,半自動補正アルゴリズムを提案する。
論文 参考訳(メタデータ) (2020-10-05T03:48:07Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。