論文の概要: Integrated Framework for Selecting and Enhancing Ancient Marathi Inscription Images from Stone, Metal Plate, and Paper Documents
- arxiv url: http://arxiv.org/abs/2601.04800v1
- Date: Thu, 08 Jan 2026 10:30:59 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-09 17:01:53.160462
- Title: Integrated Framework for Selecting and Enhancing Ancient Marathi Inscription Images from Stone, Metal Plate, and Paper Documents
- Title(参考訳): 石・金属板・文書から古代マラタイの碑文画像の選択・強調のための統合的枠組み
- Authors: Bapu D. Chendage, Rajivkumar S. Mente,
- Abstract要約: 本稿では,バイナライゼーションと補完前処理技術に基づく画像強調手法を提案する。
提案手法は,石碑や金属板,史料など,古代の書体の種類によって評価されている。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/publicdomain/zero/1.0/
- Abstract: Ancient script images often suffer from severe background noise, low contrast, and degradation caused by aging and environmental effects. In many cases, the foreground text and background exhibit similar visual characteristics, making the inscriptions difficult to read. The primary objective of image enhancement is to improve the readability of such degraded ancient images. This paper presents an image enhancement approach based on binarization and complementary preprocessing techniques for removing stains and enhancing unclear ancient text. The proposed methods are evaluated on different types of ancient scripts, including inscriptions on stone, metal plates, and historical documents. Experimental results show that the proposed approach achieves classification accuracies of 55.7%, 62%, and 65.6% for stone, metal plate, and document scripts, respectively, using the K-Nearest Neighbor (K-NN) classifier. Using the Support Vector Machine (SVM) classifier, accuracies of 53.2%, 59.5%, and 67.8% are obtained. The results demonstrate the effectiveness of the proposed enhancement method in improving the readability of ancient Marathi inscription images.
- Abstract(参考訳): 古代の文字画像は、しばしば背景の騒音、低コントラスト、老朽化や環境の影響による劣化に悩まされる。
多くの場合、前景のテキストと背景は類似した視覚的特徴を示しており、碑文を読むのが困難である。
画像強調の主な目的は、こうした劣化した古代画像の可読性を改善することである。
本稿では,2項化と相補的前処理技術に基づく画像強調手法を提案する。
提案手法は,石碑や金属板,史料など,古代の書体の種類によって評価されている。
実験により,K-Nearest Neighbor (K-NN)分類器を用いて,石,金属板,文書の分類精度を55.7%,62%,65.6%とした。
サポートベクトルマシン(SVM)分類器を用いて、53.2%、59.5%、67.8%の精度が得られる。
その結果,古代マラタイの碑文画像の可読性を向上させるために,提案手法の有効性が示された。
関連論文リスト
- Enhancing rice leaf images: An overview of image denoising techniques [0.0]
画像強調は, イネの葉解析, 病原性検出, 栄養失調評価, 成長解析に必須である。
画像フィルターは一般的に、明るさ、コントラスト、シャープネスといった視覚的特徴を識別、変換、拡張するために使用される。
本研究では,CLAHE(Contrast Limited Adaptive Histogram Equalization, 適応ヒストグラム等化法)と併用して, イネ葉画像の効率的な復調法について, 画像復調法の比較検討を行った。
論文 参考訳(メタデータ) (2025-10-28T08:50:17Z) - Likelihood-Based Text-to-Image Evaluation with Patch-Level Perceptual
and Semantic Credit Assignment [48.835298314274254]
生成した画像の可能性を直接推定し,テキスト・画像生成性能を評価する。
高い確率は、知覚品質が向上し、テキスト画像のアライメントが向上することを示している。
これらのモデルの生成能力を、数百のサンプルで評価することができる。
論文 参考訳(メタデータ) (2023-08-16T17:26:47Z) - Evaluating Picture Description Speech for Dementia Detection using
Image-text Alignment [10.008388878255538]
画像と記述文の両方を入力として用いた最初の認知症検出モデルを提案する。
認知症と健康なサンプルの相違を,テキストが画像と集中領域に与える影響で観察する。
本稿では,画像,サブイメージ,集中領域との関連性に基づいて,サンプルを前処理する3つの高度なモデルを提案する。
論文 参考訳(メタデータ) (2023-08-11T08:42:37Z) - Parents and Children: Distinguishing Multimodal DeepFakes from Natural Images [60.34381768479834]
近年の拡散モデルの発展により、自然言語のテキストプロンプトから現実的なディープフェイクの生成が可能になった。
我々は、最先端拡散モデルにより生成されたディープフェイク検出に関する体系的研究を開拓した。
論文 参考訳(メタデータ) (2023-04-02T10:25:09Z) - AGTGAN: Unpaired Image Translation for Photographic Ancient Character
Generation [27.77329906930072]
本稿では,AGTGAN と呼ばれる非教師付き生成敵ネットワークを提案する。
グローバルなグリフ形状と局所的なグリフ形状のモデリングにより,多様なグリフと現実的なテクスチャを持つキャラクタを生成することができる。
得られた画像から,最大写真オラクル骨キャラクタデータセットを用いた実験により,分類精度を最大16.34%向上させることができた。
論文 参考訳(メタデータ) (2023-03-13T11:18:41Z) - Impact of Automatic Image Classification and Blind Deconvolution in
Improving Text Detection Performance of the CRAFT Algorithm [0.0]
本研究では,CRAFTのテキスト検出性能を高めるために,画像前処理における自動画像分類とブラインドデコンボリューションの影響について検討した。
提案手法は,100のラプラシアン演算子をしきい値として利用することにより,シーンイメージをぼかしと非青色の2つのカテゴリに自動的に分類する。
論文 参考訳(メタデータ) (2022-11-29T07:49:22Z) - Pattern Spotting and Image Retrieval in Historical Documents using Deep
Hashing [60.67014034968582]
本稿では,歴史文書のデジタルコレクションにおける画像検索とパターンスポッティングのためのディープラーニング手法を提案する。
ディープラーニングモデルは、実数値またはバイナリコード表現を提供する2つの異なるバリエーションを考慮して、特徴抽出に使用される。
また,提案手法により検索時間を最大200倍に短縮し,関連する作業と比較してストレージコストを最大6,000倍に削減する。
論文 参考訳(メタデータ) (2022-08-04T01:39:37Z) - Knowledge Mining with Scene Text for Fine-Grained Recognition [53.74297368412834]
本研究では,シーンテキスト画像の背景にある暗黙的な文脈知識をマイニングする,エンドツーエンドのトレーニング可能なネットワークを提案する。
我々は,KnowBertを用いて意味表現の関連知識を検索し,それを画像特徴と組み合わせ,きめ細かい分類を行う。
本手法は,3.72%のmAPと5.39%のmAPをそれぞれ上回っている。
論文 参考訳(メタデータ) (2022-03-27T05:54:00Z) - A Survey on Deep learning based Document Image Enhancement [5.279475826661643]
現在では、科学論文、税形式、請求書、契約書、歴史文書などのデジタル化された文書が広く使われている。
これらの画像は、撮影時の照明条件の悪さ、スキャン中の影、ノイズやぼやけなどの歪み、老朽化、インクの汚れ、通気、透かし、切手など、様々な理由で劣化または損傷する可能性がある。
近年のディープラーニングの進歩により,これらの文書画像の品質向上のために,多くの手法が提案されている。
論文 参考訳(メタデータ) (2021-12-06T00:24:50Z) - Blind Face Restoration via Deep Multi-scale Component Dictionaries [75.02640809505277]
劣化した観測の復元過程をガイドするディープフェイス辞書ネットワーク(DFDNet)を提案する。
DFDNetは高品質な画像から知覚的に重要な顔成分のディープ辞書を生成する。
コンポーネントAdaINは、入力機能と辞書機能の間のスタイルの多様性を取り除くために利用される。
論文 参考訳(メタデータ) (2020-08-02T07:02:07Z) - Distilling Localization for Self-Supervised Representation Learning [82.79808902674282]
コントラスト学習は教師なし表現学習に革命をもたらした。
現在のコントラストモデルでは、前景オブジェクトのローカライズには効果がない。
本稿では,背景変化を学習するためのデータ駆動型手法を提案する。
論文 参考訳(メタデータ) (2020-04-14T16:29:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。