論文の概要: Typhoon OCR: Open Vision-Language Model For Thai Document Extraction
- arxiv url: http://arxiv.org/abs/2601.14722v1
- Date: Wed, 21 Jan 2026 07:24:32 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-22 21:27:50.27488
- Title: Typhoon OCR: Open Vision-Language Model For Thai Document Extraction
- Title(参考訳): タイの文書抽出のためのオープンビジョン言語モデル「Typhoon OCR」
- Authors: Surapon Nonesung, Natapong Nitarach, Teetouch Jaknamon, Pittawat Taveekitworachai, Kunat Pipatanakul,
- Abstract要約: 本稿ではタイ語と英語に適した文書抽出用オープンVLMであるTyphoon OCRについて述べる。
このモデルは、タイ語に焦点を当てたトレーニングデータセットを使用して、視覚言語バックボーンから微調整される。
最新のモデルであるTyphoon OCR V1.5は、メタデータへの依存を減らし、デプロイを単純化するために設計された、コンパクトで推論効率の良いモデルです。
- 参考スコア(独自算出の注目度): 4.657998588885444
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: Document extraction is a core component of digital workflows, yet existing vision-language models (VLMs) predominantly favor high-resource languages. Thai presents additional challenges due to script complexity from non-latin letters, the absence of explicit word boundaries, and the prevalence of highly unstructured real-world documents, limiting the effectiveness of current open-source models. This paper presents Typhoon OCR, an open VLM for document extraction tailored for Thai and English. The model is fine-tuned from vision-language backbones using a Thai-focused training dataset. The dataset is developed using a multi-stage data construction pipeline that combines traditional OCR, VLM-based restructuring, and curated synthetic data. Typhoon OCR is a unified framework capable of text transcription, layout reconstruction, and document-level structural consistency. The latest iteration of our model, Typhoon OCR V1.5, is a compact and inference-efficient model designed to reduce reliance on metadata and simplify deployment. Comprehensive evaluations across diverse Thai document categories, including financial reports, government forms, books, infographics, and handwritten documents, show that Typhoon OCR achieves performance comparable to or exceeding larger frontier proprietary models, despite substantially lower computational cost. The results demonstrate that open vision-language OCR models can achieve accurate text extraction and layout reconstruction for Thai documents, reaching performance comparable to proprietary systems while remaining lightweight and deployable.
- Abstract(参考訳): ドキュメント抽出はデジタルワークフローの中核的なコンポーネントであるが、既存の視覚言語モデル(VLM)は主に高解像度言語を好んでいる。
タイでは、非ラテン文字からのスクリプトの複雑さ、明示的な単語境界の欠如、高度に構造化されていない実世界の文書の出現により、現在のオープンソースモデルの有効性が制限されているため、さらなる課題が提示されている。
本稿ではタイ語と英語に適した文書抽出用オープンVLMであるTyphoon OCRについて述べる。
このモデルは、タイ語に焦点を当てたトレーニングデータセットを使用して、視覚言語バックボーンから微調整される。
このデータセットは、従来のOCR、VLMベースの再構成、キュレートされた合成データを組み合わせたマルチステージデータ構築パイプラインを使用して開発されている。
Typhoon OCRは、テキストの書き起こし、レイアウトの再構築、ドキュメントレベルの構造整合性を実現する統合フレームワークである。
最新のモデルであるTyphoon OCR V1.5は、メタデータへの依存を減らし、デプロイを単純化するために設計された、コンパクトで推論効率の良いモデルです。
財務報告、政府形態、書籍、インフォグラフィック、手書き文書など、様々なタイの文書カテゴリーの総合的な評価は、かなり計算コストが低いにもかかわらず、タイのOCRがより大きなフロンティアのプロプライエタリモデルに匹敵するか、それ以上の性能を達成することを示している。
その結果、オープンビジョン言語OCRモデルはタイ語文書の正確なテキスト抽出とレイアウト再構築を実現し、軽量でデプロイ可能なまま、プロプライエタリなシステムに匹敵する性能を実現することができた。
関連論文リスト
- MonkeyOCR v1.5 Technical Report: Unlocking Robust Document Parsing for Complex Patterns [80.05126590825121]
MonkeyOCR v1.5は、レイアウト理解とコンテンツ認識の両方を強化する統合ビジョン言語フレームワークである。
複雑なテーブル構造に対処するために,視覚的整合性に基づく強化学習手法を提案する。
2つの特別なモジュール、Image-Decoupled Table ParsingとType-Guided Table Mergingを導入し、テーブルの信頼性の高いパースを可能にする。
論文 参考訳(メタデータ) (2025-11-13T15:12:17Z) - Scaling Beyond Context: A Survey of Multimodal Retrieval-Augmented Generation for Document Understanding [61.36285696607487]
文書理解は、財務分析から科学的発見への応用に不可欠である。
現在のアプローチでは、OCRベースのパイプラインがLarge Language Models(LLM)やネイティブのMultimodal LLMs(MLLM)に制限されている。
Retrieval-Augmented Generation (RAG)は、外部データの基底モデルを支援するが、文書のマルチモーダルな性質は、テキスト、テーブル、チャート、レイアウトを組み合わせることで、より高度なパラダイムを必要とする。
論文 参考訳(メタデータ) (2025-10-17T02:33:16Z) - Leveraging Machine Learning and Enhanced Parallelism Detection for BPMN Model Generation from Text [75.77648333476776]
本稿では、テキストからBPMNモデルを抽出する自動パイプラインについて紹介する。
この研究の重要な貢献は、新たに注釈付けされたデータセットの導入である。
モデルトレーニング用の32のパラレルゲートウェイを含む15の注釈付き文書でデータセットを増強する。
論文 参考訳(メタデータ) (2025-07-11T07:25:55Z) - SARD: A Large-Scale Synthetic Arabic OCR Dataset for Book-Style Text Recognition [0.995313069446686]
SARDは、書籍スタイルのドキュメントをシミュレートするための、大規模で合成的に生成されたデータセットである。
6億9千万の単語を含む843,622の文書画像からなり、10の異なるアラビア語のフォントに散らばって、タイポグラフィーのカバー範囲を広く確保している。
スキャンされた文書から得られたデータセットとは異なり、SARDは現実世界のノイズや歪みをなくし、モデルトレーニングのためのクリーンで制御された環境を提供する。
論文 参考訳(メタデータ) (2025-05-30T13:47:54Z) - XFormParser: A Simple and Effective Multimodal Multilingual Semi-structured Form Parser [32.62155069664013]
textbfXForm textbfPARSER(textbfXForm)を導入する。
InDFormSFTも開発しています。InDFormSFTは、さまざまな産業的文脈でフォームのパースニーズに対処するデータセットです。
論文 参考訳(メタデータ) (2024-05-27T16:37:17Z) - GlobalDoc: A Cross-Modal Vision-Language Framework for Real-World Document Image Retrieval and Classification [8.880856137902947]
我々は、自己教師型で事前訓練されたクロスモーダルトランスフォーマーベースのアーキテクチャであるGlobalDocを紹介する。
GlobalDocは、言語と視覚表現を統合することによって、よりリッチなセマンティックな概念の学習を改善する。
適切な評価のために,Few-Shot Document Image Classification (DIC)とContent-based Document Image Retrieval (DIR)の2つの新しい文書レベル下流VDUタスクを提案する。
論文 参考訳(メタデータ) (2023-09-11T18:35:14Z) - mPLUG-DocOwl: Modularized Multimodal Large Language Model for Document
Understanding [55.4806974284156]
文書理解とは、ウェブページのようなデジタル文書から自動的に情報を抽出し、分析し、理解することである。
既存のMLLM(Multi-model Large Language Models)は、浅いOCRフリーテキスト認識において、望ましくないゼロショット機能を実証している。
論文 参考訳(メタデータ) (2023-07-04T11:28:07Z) - OCRBench: On the Hidden Mystery of OCR in Large Multimodal Models [122.27878464009181]
テキスト関連視覚タスクにおいて, GPT4V や Gemini などの大規模マルチモーダルモデルの包括的評価を行った。
OCRBenchには29のデータセットがあり、最も包括的なOCR評価ベンチマークが利用できる。
論文 参考訳(メタデータ) (2023-05-13T11:28:37Z) - Donut: Document Understanding Transformer without OCR [17.397447819420695]
我々は,OCRフレームワークを基盤にすることなく,エンドツーエンドのトレーニングが可能な新しいVDUモデルを提案する。
提案手法は,公開ベンチマークデータセットとプライベート産業サービスデータセットの各種文書理解タスクにおける最先端のパフォーマンスを実現する。
論文 参考訳(メタデータ) (2021-11-30T18:55:19Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。