論文の概要: Robustness Evaluation of Transformer-based Form Field Extractors via
Form Attacks
- arxiv url: http://arxiv.org/abs/2110.04413v1
- Date: Fri, 8 Oct 2021 23:58:24 GMT
- ステータス: 処理完了
- システム内更新日: 2021-10-17 06:14:34.025297
- Title: Robustness Evaluation of Transformer-based Form Field Extractors via
Form Attacks
- Title(参考訳): フォームアタックによるトランスフォーマー型フォームフィールドエクストラクタのロバスト性評価
- Authors: Le Xue, Mingfei Gao, Zeyuan Chen, Caiming Xiong and Ran Xu
- Abstract要約: 我々は,OCRレベルとフォームレベルの両方からのフォームアタックに対する最先端フィールド抽出器の脆弱性を評価するために,14種類の新しいフォームトランスフォーメーションを導入する。
実際の請求書と領収書を用いてロバストネス評価を行い、総合的な研究分析を行う。
- 参考スコア(独自算出の注目度): 51.02821296418129
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We propose a novel framework to evaluate the robustness of transformer-based
form field extraction methods via form attacks. We introduce 14 novel form
transformations to evaluate the vulnerability of the state-of-the-art field
extractors against form attacks from both OCR level and form level, including
OCR location/order rearrangement, form background manipulation and form
field-value augmentation. We conduct robustness evaluation using real invoices
and receipts, and perform comprehensive research analysis. Experimental results
suggest that the evaluated models are very susceptible to form perturbations
such as the variation of field-values (~15% drop in F1 score), the
disarrangement of input text order(~15% drop in F1 score) and the disruption of
the neighboring words of field-values(~10% drop in F1 score). Guided by the
analysis, we make recommendations to improve the design of field extractors and
the process of data collection.
- Abstract(参考訳): 本稿では,フォーム攻撃によるフォームフィールド抽出手法の堅牢性を評価するための新しいフレームワークを提案する。
我々は,OCRレベルとフォームレベルの両方からのフォーム攻撃に対する最先端フィールド抽出器の脆弱性を評価するために,OCR位置/順序再構成,フォームバックグラウンド操作,フォームフィールド値拡張を含む14の新たなフォーム変換を導入する。
実請求書と領収書を用いてロバスト性評価を行い,包括的な調査分析を行う。
実験結果から,フィールド値の変動(F1スコアの15%減),入力テキスト順の乱れ(F1スコアの15%減),隣接するフィールド値の単語の破壊(F1スコアの10%減)など,フィールド値の変動(F1スコアの15%減)を予測できる可能性が示唆された。
分析により,フィールド抽出器の設計とデータ収集のプロセスを改善することを推奨する。
関連論文リスト
- Turn Down the Noise: Leveraging Diffusion Models for Test-time
Adaptation via Pseudo-label Ensembling [2.5437028043490084]
テスト時間適応の目標は、ソースデータに頼ることなく、継続的に変化するターゲットドメインにソース予測モデルを適用することである。
本稿では,事前学習した拡散モデルを用いて,対象領域の画像がソース領域に近づくように投影する手法を提案する。
論文 参考訳(メタデータ) (2023-11-29T20:35:32Z) - In Search of Lost Online Test-time Adaptation: A Survey [43.113712176561435]
本稿では、新しいデータ分布に機械学習モデルを適用することに焦点を当てた、オンラインテスト時間適応(OTTA)に関する総合的な調査を行う。
我々はOTTAテクニックを3つの主要なカテゴリに分類し、それらをベンチマークに分類し、真に効果的な戦略を発見する。
その結果,(1)変圧器は多彩なドメインシフトに対して高いレジリエンスを示すこと,(2)多くのOTTA法が多くのバッチサイズで有効であること,(3)適応中に最適化と摂動抵抗の安定性が重要であること,などが示唆された。
論文 参考訳(メタデータ) (2023-10-31T05:47:33Z) - Setting the Trap: Capturing and Defeating Backdoors in Pretrained
Language Models through Honeypots [68.84056762301329]
近年の研究では、バックドア攻撃に対するプレトレーニング言語モデル(PLM)の感受性が明らかにされている。
バックドア情報のみを吸収するために,ハニーポットモジュールをオリジナルのPLMに統合する。
我々の設計は、PLMの低層表現が十分なバックドア特徴を持っているという観察に動機づけられている。
論文 参考訳(メタデータ) (2023-10-28T08:21:16Z) - CT-Net: Arbitrary-Shaped Text Detection via Contour Transformer [19.269070203448187]
輪郭変圧器を用いたプログレッシブな輪郭回帰による任意形状のシーンテキスト検出フレームワークCT-Netを提案する。
CT-Netは1秒あたり1.2フレームで86.1、CTW1500とTotal-Textデータセットで10.1FPSで87.8のF測定を実現している。
論文 参考訳(メタデータ) (2023-07-25T08:00:40Z) - Remote Sensing Change Detection With Transformers Trained from Scratch [62.96911491252686]
トランスフォーマーベースの変更検出(CD)アプローチでは、大規模なイメージ分類でトレーニングされた事前トレーニングモデルを使用するか、別のCDデータセットで最初の事前トレーニングを頼りにしてから、ターゲットのベンチマークを微調整する。
我々は、4つの公開ベンチマークにおいて、スクラッチからトレーニングされながら最先端のパフォーマンスを実現するトランスフォーマーを用いたエンドツーエンドCDアプローチを開発した。
論文 参考訳(メタデータ) (2023-04-13T17:57:54Z) - Automated Essay Scoring Using Transformer Models [0.415623340386296]
自動エッセイスコアリング(AES)におけるトランスフォーマーに基づくアプローチの検討
本稿では,BOWアプローチに基づくロジスティック回帰モデルと比較し,それらの差について考察する。
このようなモデルが、人間のレーダの精度を高めるのにどのように役立つかを示す。
論文 参考訳(メタデータ) (2021-10-13T17:09:47Z) - DeformRS: Certifying Input Deformations with Randomized Smoothing [121.88209420825582]
深層ニューラルネットワークは、画素変位のベクトル場の形での入力変形に対して脆弱である。
一般ベクトル場とパラメータ化変形の両方に対するランダムな平滑化設定における認証を再構成する。
我々の新しい定式化は、大きな入力データセット上の大きなネットワークにスケールする。
論文 参考訳(メタデータ) (2021-07-02T12:20:15Z) - Robustness Gym: Unifying the NLP Evaluation Landscape [91.80175115162218]
ディープニューラルネットワークは、現実のシステムにデプロイすると脆くなることが多い。
最近の研究は、そのようなモデルの堅牢性をテストすることに重点を置いている。
単純かつ評価可能なツールキットであるRobustness Gymの形で解を提案する。
論文 参考訳(メタデータ) (2021-01-13T02:37:54Z) - Autoencoding Variational Autoencoder [56.05008520271406]
我々は,この行動が学習表現に与える影響と,自己整合性の概念を導入することでそれを修正する結果について検討する。
自己整合性アプローチで訓練されたエンコーダは、敵攻撃による入力の摂動に対して頑健な(無神経な)表現につながることを示す。
論文 参考訳(メタデータ) (2020-12-07T14:16:14Z) - Gradient-Based Adversarial Training on Transformer Networks for
Detecting Check-Worthy Factual Claims [3.7543966923106438]
本稿では,最初の逆正則変換型クレームスポッタモデルを提案する。
現在の最先端モデルよりもF1スコアが4.70ポイント向上した。
本稿では,変換器モデルに逆学習を適用する手法を提案する。
論文 参考訳(メタデータ) (2020-02-18T16:51:05Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。