論文の概要: LP-IOANet: Efficient High Resolution Document Shadow Removal
- arxiv url: http://arxiv.org/abs/2303.12862v1
- Date: Wed, 22 Mar 2023 18:56:45 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-24 16:35:53.755549
- Title: LP-IOANet: Efficient High Resolution Document Shadow Removal
- Title(参考訳): LP-IOANet: 効率的な高解像度ドキュメントシャドウ除去
- Authors: Konstantinos Georgiadis, M. Kerim Yucel, Evangelos Skartados, Valia
Dimaridou, Anastasios Drosou, Albert Saa-Garriga, Bruno Manganelli
- Abstract要約: ほとんどの文書のシャドウ除去シナリオは、高解像度の出力を生成できるリアルタイムで正確なモデルを必要とする。
軽量なアーキテクチャとアップサンプリングモジュールを備えた新しいパイプラインである入出力注意ネットワーク(LP-IOANet)を用いたラプラシアンピラミッドを提案する。
その結果, 平均誤差(MAE)が35%向上し, 携帯端末の4倍の解像度(最先端手法の4倍)でリアルタイムに動作できることが判明した。
- 参考スコア(独自算出の注目度): 3.8296722078451566
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Document shadow removal is an integral task in document enhancement
pipelines, as it improves visibility, readability and thus the overall quality.
Assuming that the majority of practical document shadow removal scenarios
require real-time, accurate models that can produce high-resolution outputs
in-the-wild, we propose Laplacian Pyramid with Input/Output Attention Network
(LP-IOANet), a novel pipeline with a lightweight architecture and an upsampling
module. Furthermore, we propose three new datasets which cover a wide range of
lighting conditions, images, shadow shapes and viewpoints. Our results show
that we outperform the state-of-the-art by a 35% relative improvement in mean
average error (MAE), while running real-time in four times the resolution (of
the state-of-the-art method) on a mobile device.
- Abstract(参考訳): ドキュメントのシャドウ削除は、可視性、可読性、全体的な品質を改善するため、ドキュメント拡張パイプラインにおいて不可欠なタスクである。
実用的な文書のシャドウ除去シナリオの大部分が高精細な出力を生成できるリアルタイムで正確なモデルを必要とすることを前提として,軽量アーキテクチャとアップサンプリングモジュールを備えた新しいパイプラインである入出力注意ネットワーク(LP-IOANet)を用いたラプラシアンピラミッドを提案する。
さらに,様々な照明条件,画像,影の形状,視点をカバーする3つの新しいデータセットを提案する。
その結果, 平均誤差(MAE)が35%向上し, 携帯端末の4倍の解像度(最先端手法の4倍)でリアルタイムに動作できることが判明した。
関連論文リスト
- Efficient Depth-Guided Urban View Synthesis [52.841803876653465]
高速フィードフォワード推論とシーンごとのファインチューニングのための効率的な深層誘導型都市ビュー合成(EDUS)を提案する。
EDUSは、粗い入力画像から一般化可能な都市ビュー合成を可能にするためのガイダンスとして、ノイズの多い幾何学的先行情報を利用する。
その結果,EDUSは高速なテスト時間最適化と組み合わせることで,スパース・ビュー・セッティングにおける最先端性能を達成できることが示唆された。
論文 参考訳(メタデータ) (2024-07-17T08:16:25Z) - GIR: 3D Gaussian Inverse Rendering for Relightable Scene Factorization [62.13932669494098]
本稿では,3次元ガウス表現を用いた3次元ガウス逆レンダリング(GIR)手法を提案する。
最短固有ベクトルを用いて各3次元ガウスの正規性を計算する。
我々は3次元ガウシアン毎に方向対応の放射光を格納し、多重バウンス光輸送を近似するために二次照明をアンタングルするために、効率的なボクセルベースの間接照明追跡方式を採用する。
論文 参考訳(メタデータ) (2023-12-08T16:05:15Z) - Supersampling of Data from Structured-light Scanner with Deep Learning [1.6385815610837167]
2つのディープラーニングモデルFDSRとDKNは、高解像度のデータを扱うように修正される。
得られた高分解能深度マップは定性的および定量的な測定値を用いて評価される。
論文 参考訳(メタデータ) (2023-11-13T16:04:41Z) - High-Resolution Document Shadow Removal via A Large-Scale Real-World Dataset and A Frequency-Aware Shadow Erasing Net [42.32958776152137]
ドキュメントをカジュアルな機器でキャプチャすると、シャドウが発生することが多い。
自然なシャドウ除去のアルゴリズムとは異なり、文書シャドウ除去のアルゴリズムはフォントや数字の詳細を高精細な入力で保存する必要がある。
より大規模な実世界のデータセットと、慎重に設計された周波数対応ネットワークを介して、高解像度のドキュメントシャドウ除去を処理します。
論文 参考訳(メタデータ) (2023-08-27T22:45:24Z) - Enhancing Low-light Light Field Images with A Deep Compensation Unfolding Network [52.77569396659629]
本稿では,低光環境下で撮像した光場(LF)画像の復元に,DCUNet(Deep compensation network openfolding)を提案する。
このフレームワークは、中間拡張結果を使用して照明マップを推定し、展開プロセスで新しい拡張結果を生成する。
本稿では,LF画像の特徴を適切に活用するために,擬似明示的特徴相互作用モジュールを提案する。
論文 参考訳(メタデータ) (2023-08-10T07:53:06Z) - Ultra-High-Definition Low-Light Image Enhancement: A Benchmark and
Transformer-Based Method [51.30748775681917]
低照度画像強調(LLIE)の課題を考察し,4K解像度と8K解像度の画像からなる大規模データベースを導入する。
我々は、系統的なベンチマーク研究を行い、現在のLLIEアルゴリズムと比較する。
第2のコントリビューションとして,変換器をベースとした低照度化手法であるLLFormerを紹介する。
論文 参考訳(メタデータ) (2022-12-22T09:05:07Z) - ShaDocNet: Learning Spatial-Aware Tokens in Transformer for Document
Shadow Removal [53.01990632289937]
本稿では,文書陰影除去のためのトランスフォーマーモデルを提案する。
シャドウとシャドウフリーの両方の領域で、シャドウコンテキストエンコーディングとデコードを使用する。
論文 参考訳(メタデータ) (2022-11-30T01:46:29Z) - Multi-view Inverse Rendering for Large-scale Real-world Indoor Scenes [5.9870673031762545]
本研究では,大規模屋内シーンを対象とした多視点逆レンダリング手法を提案する。
提案手法は, 最先端の定量的, 定性的に性能を向上する。
物質編集、編集可能な新規ビュー合成、リライトなど、物理的に理にかなった混合現実のアプリケーションを可能にする。
論文 参考訳(メタデータ) (2022-11-18T12:53:10Z) - SALISA: Saliency-based Input Sampling for Efficient Video Object
Detection [58.22508131162269]
ビデオオブジェクト検出のための新しい一様SALiencyベースの入力SAmpling技術であるSALISAを提案する。
SALISAは小物体の検出を著しく改善することを示す。
論文 参考訳(メタデータ) (2022-04-05T17:59:51Z) - FaDIV-Syn: Fast Depth-Independent View Synthesis [27.468361999226886]
高速深度に依存しないビュー合成法であるFaDIV-Synを紹介する。
我々の多視点アプローチは、ビュー合成法がしばしば深度推定段階によって制限される問題に対処する。
論文 参考訳(メタデータ) (2021-06-24T16:14:01Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。