論文の概要: Volumetric Fast Fourier Convolution for Detecting Ink on the Carbonized
Herculaneum Papyri
- arxiv url: http://arxiv.org/abs/2308.05070v1
- Date: Wed, 9 Aug 2023 17:00:43 GMT
- ステータス: 処理完了
- システム内更新日: 2023-08-10 12:54:55.437417
- Title: Volumetric Fast Fourier Convolution for Detecting Ink on the Carbonized
Herculaneum Papyri
- Title(参考訳): 炭化herculaneum papyriのインク検出のための体積高速フーリエ畳み込み法
- Authors: Fabio Quattrini, Vittorio Pippi, Silvia Cascianelli, Rita Cucchiara
- Abstract要約: 本稿では、ボリュームデータに対するFast Fourier Convolution演算子の修正を提案し、Herculaneum papyri上のインク検出のためのセグメンテーションアーキテクチャに適用する。
この課題と,提案した演算子のボリュームデータを含む他のタスクへの適用を奨励するため,実装をリリースする。
- 参考スコア(独自算出の注目度): 23.090618261864886
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Recent advancements in Digital Document Restoration (DDR) have led to
significant breakthroughs in analyzing highly damaged written artifacts. Among
those, there has been an increasing interest in applying Artificial
Intelligence techniques for virtually unwrapping and automatically detecting
ink on the Herculaneum papyri collection. This collection consists of
carbonized scrolls and fragments of documents, which have been digitized via
X-ray tomography to allow the development of ad-hoc deep learning-based DDR
solutions. In this work, we propose a modification of the Fast Fourier
Convolution operator for volumetric data and apply it in a segmentation
architecture for ink detection on the challenging Herculaneum papyri,
demonstrating its suitability via deep experimental analysis. To encourage the
research on this task and the application of the proposed operator to other
tasks involving volumetric data, we will release our implementation
(https://github.com/aimagelab/vffc)
- Abstract(参考訳): デジタル文書復元(DDR)の最近の進歩は、高度に損傷した文書を解析する大きなブレークスルーをもたらした。
その中でも,Herculaneum papyriコレクションのインクを自動的に検出する人工知能技術への関心が高まっている。
このコレクションは、カーボン化されたスクロールと文書の断片で構成されており、X線トモグラフィーによってデジタル化され、アドホックなディープラーニングベースのDDRソリューションの開発を可能にしている。
本研究では,ボリュームデータに対するFast Fourier Convolution演算子の修正を提案し,それをHerculaneum papyriのインク検出のためのセグメンテーションアーキテクチャに適用し,深層実験解析による適合性を実証する。
このタスクと提案するオペレーターのボリュームデータを含む他のタスクへの適用を促進するため、実装をリリースする(https://github.com/aimagelab/vffc)。
関連論文リスト
- Transformer-Based UNet with Multi-Headed Cross-Attention Skip
Connections to Eliminate Artifacts in Scanned Documents [0.0]
Swin Transformerのバックボーンを使用したUNet構造の変更を行い、スキャンされたドキュメントの典型的なアーティファクトを削除する。
合成データのエラー率を最大53.9%削減したテキスト抽出品質の改善をアーカイブする。
論文 参考訳(メタデータ) (2023-06-05T12:12:23Z) - How Does Generative Retrieval Scale to Millions of Passages? [68.98628807288972]
各種コーパス尺度における生成的検索手法の実証的研究を行った。
我々は8.8Mパスのコーパスで数百万のパスに生成検索をスケールし、モデルサイズを最大11Bパラメータまで評価する。
生成的検索は、小さなコーパス上の最先端のデュアルエンコーダと競合するが、数百万のパスへのスケーリングは依然として重要で未解決の課題である。
論文 参考訳(メタデータ) (2023-05-19T17:33:38Z) - EduceLab-Scrolls: Verifiable Recovery of Text from Herculaneum Papyri using X-ray CT [0.0]
X線CT画像を用いたHerculaneum papyriの隠れテキストを明らかにするための完全なソフトウェアパイプラインを提案する。
EduceLab-Scrollsは、この問題に関する20年間の研究成果を表す包括的オープンデータセットである。
論文 参考訳(メタデータ) (2023-04-04T19:28:51Z) - Batch-based Model Registration for Fast 3D Sherd Reconstruction [74.55975819488404]
3次元復元技術は、考古学的断片のデジタル文書化に広く用いられている。
考古学遺跡から出土した断片の効率的なデジタル化のための携帯型,高スループット,高精度な復元システムを開発することを目的としている。
フラグメントの前後をペアリングするバッチベースの新しいマッチングアルゴリズムと,非常に狭い重複領域を共有する部分スキャンを登録できるバイラテラル境界ICPアルゴリズムを開発した。
論文 参考訳(メタデータ) (2022-11-13T13:08:59Z) - Unsupervised Clustering of Roman Potsherds via Variational Autoencoders [63.8376359764052]
我々は,ローマのコモンウェア・ポッシャードの分類作業において,考古学者を支援する人工知能ソリューションを提案する。
断片の部分性と手作りのばらつきは、それらのマッチングを困難な問題にしている。
深部畳み込み変分オートエンコーダ(VAE)ネットワークの潜時空間で学習した非線形特徴の教師なし階層的クラスタリングにより、類似したプロファイルをペアリングすることを提案する。
論文 参考訳(メタデータ) (2022-03-14T18:56:13Z) - One-shot Key Information Extraction from Document with Deep Partial
Graph Matching [60.48651298832829]
ドキュメントからキー情報抽出(KIE)は、多くの産業シナリオにおいて効率、生産性、セキュリティを改善する。
KIEタスクのための既存の教師付き学習手法は、多数のラベル付きサンプルを供給し、異なる種類の文書の別々のモデルを学ぶ必要がある。
部分グラフマッチングを用いたワンショットKIEのためのディープエンド・ツー・エンド・トレーニング可能なネットワークを提案する。
論文 参考訳(メタデータ) (2021-09-26T07:45:53Z) - Robust Retrieval Augmented Generation for Zero-shot Slot Filling [11.30375489913602]
本稿では,ゼロショットスロットフィリングに対する新しいアプローチを提案する。この手法は,高密度経路の検索を強陰性で拡張し,拡張生成モデル検索のための堅牢なトレーニング手順を提案する。
提案モデルでは,T-RExおよびzsREスロット充填データセットの大幅な改善,経路検索とスロット値生成の改善,KILTリーダーボードの上位1位にランクインした。
論文 参考訳(メタデータ) (2021-08-31T15:51:27Z) - Benchmarking Scientific Image Forgery Detectors [18.225190509954874]
本稿では,研究コミュニティが報告した最も一般的な画像偽造操作を再現する,拡張可能なオープンソースライブラリを提案する。
我々は、富裕層を有する大規模な科学的偽画像ベンチマーク(39,423画像)を作成する。
さらに,画像重複による抽出論文の多さを考慮し,提案したデータセットにおける最先端のコピー・モーブ検出手法の評価を行った。
論文 参考訳(メタデータ) (2021-05-26T22:58:20Z) - TEACHTEXT: CrossModal Generalized Distillation for Text-Video Retrieval [103.85002875155551]
本研究では,大規模言語前訓練を利用した一般化蒸留法TeachTextを提案する。
提案手法をビデオ側モダリティに拡張し,テスト時に使用するモダリティの数を効果的に削減できることを示す。
提案手法は,いくつかのビデオ検索ベンチマークの精度を著しく向上させ,テスト時の計算オーバーヘッドを増加させない。
論文 参考訳(メタデータ) (2021-04-16T17:55:28Z) - Solving Missing-Annotation Object Detection with Background
Recalibration Loss [49.42997894751021]
本稿では,新しい,かつ困難な検出シナリオに焦点を当てる。 真のオブジェクト/インスタンスの大部分は,データセットにラベル付けされていない。
従来, ソフトサンプリングを用いて, 正の例と重なり合うRoIsの勾配を再重み付けする手法が提案されてきた。
本稿では、予め定義されたIoU閾値と入力画像に基づいて損失信号を自動的に校正できる、バックグラウンド校正損失(BRL)と呼ばれる優れた解を提案する。
論文 参考訳(メタデータ) (2020-02-12T23:11:46Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。