論文の概要: Automated Mosaic Tesserae Segmentation via Deep Learning Techniques
- arxiv url: http://arxiv.org/abs/2512.18406v1
- Date: Sat, 20 Dec 2025 15:48:27 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-23 18:54:32.320652
- Title: Automated Mosaic Tesserae Segmentation via Deep Learning Techniques
- Title(参考訳): 深層学習によるモザイクテッセラセグメンテーションの自動化
- Authors: Charilaos Kapelonis, Marios Antonakakis, Konstantinos Politof, Aristomenis Antoniadis, Michalis Zervakis,
- Abstract要約: モザイク(Mosaics)は、テッセラと呼ばれる小片を接着剤で表面に配置した古代美術形式である。
本稿では,コンピュータビジョンにおける画像の背景からテッセラを分割することでモザイクのデジタル化の問題に対処する。
本稿では,従来のセグメンテーションモデルよりも優れた基礎モデルであるMeta AIによるセグメンション任意のモデル2(SAM2)を利用したモザイクの自動セグメンテーション手法を提案する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Art is widely recognized as a reflection of civilization and mosaics represent an important part of cultural heritage. Mosaics are an ancient art form created by arranging small pieces, called tesserae, on a surface using adhesive. Due to their age and fragility, they are prone to damage, highlighting the need for digital preservation. This paper addresses the problem of digitizing mosaics by segmenting the tesserae to separate them from the background within the broader field of Image Segmentation in Computer Vision. We propose a method leveraging Segment Anything Model 2 (SAM 2) by Meta AI, a foundation model that outperforms most conventional segmentation models, to automatically segment mosaics. Due to the limited open datasets in the field, we also create an annotated dataset of mosaic images to fine-tune and evaluate the model. Quantitative evaluation on our testing dataset shows notable improvements compared to the baseline SAM 2 model, with Intersection over Union increasing from 89.00% to 91.02% and Recall from 92.12% to 95.89%. Additionally, on a benchmark proposed by a prior approach, our model achieves an F-measure 3% higher than previous methods and reduces the error in the absolute difference between predicted and actual tesserae from 0.20 to just 0.02. The notable performance of the fine-tuned SAM 2 model together with the newly annotated dataset can pave the way for real-time segmentation of mosaic images.
- Abstract(参考訳): 芸術は文明の反映として広く認められ、モザイクは文化遺産の重要な部分である。
モザイク(Mosaics)は、テッセラと呼ばれる小片を接着剤で表面に配置した古代美術形式である。
年齢や脆弱さから損傷を受けやすいため、デジタル保存の必要性が強調されている。
本稿では,コンピュータビジョンにおける画像分割分野の背景からテッセラを分割することでモザイクのデジタル化の問題に対処する。
本稿では,従来のセグメンテーションモデルよりも優れた基礎モデルであるMeta AIによるセグメンション任意のモデル2(SAM2)を利用したモザイクの自動セグメンテーション手法を提案する。
フィールド内のオープンデータセットが限られているため、モザイク画像の注釈付きデータセットを作成して微調整し、モデルの評価を行う。
テストデータセットの定量的評価では、ベースラインSAM 2モデルと比較して顕著な改善が見られ、Intersection over Unionは89.00%から91.02%に増加し、Recallは92.12%から95.89%に増加した。
さらに,従来の手法よりもF値が3%高く,予測値と実際のテッセラの絶対差の誤差が0.20から0.02に減少することを示す。
微調整されたSAM 2モデルの顕著な性能と、新たに注釈付けされたデータセットは、モザイク画像のリアルタイムセグメンテーションの道を開くことができる。
関連論文リスト
- TextureSAM: Towards a Texture Aware Foundation Model for Segmentation [10.97856946049713]
Segment Anything Models (SAM)は、さまざまなデータセットにわたるオブジェクトセグメンテーションタスクにおいて、驚くべき成功を収めた。
SAMは主に大規模なセマンティックセグメンテーションデータセットに基づいて訓練されている。
この制限は、医用画像、物質分類、リモートセンシングなどの領域において重要である。
テクスチャを意識した新しい基礎モデルであるTextureSAMを導入し,テクスチャを優先するシナリオにおいて,より優れたセグメンテーションを実現する。
論文 参考訳(メタデータ) (2025-05-22T11:31:56Z) - A Plug-and-Play Method for Rare Human-Object Interactions Detection by Bridging Domain Gap [50.079224604394]
textbfContext-textbfEnhanced textbfFeature textbfAment (CEFA) と呼ばれる新しいモデルに依存しないフレームワークを提案する。
CEFAは機能アライメントモジュールとコンテキスト拡張モジュールで構成される。
本手法は, 稀なカテゴリにおけるHOIモデルの検出性能を向上させるために, プラグアンドプレイモジュールとして機能する。
論文 参考訳(メタデータ) (2024-07-31T08:42:48Z) - Reinforcing Pre-trained Models Using Counterfactual Images [54.26310919385808]
本稿では,言語誘導型生成対実画像を用いた分類モデル強化のための新しいフレームワークを提案する。
逆ファクト画像データセットを用いてモデルをテストすることにより、モデルの弱点を同定する。
我々は、分類モデルを微調整し強化するために、デファクトイメージを拡張データセットとして採用する。
論文 参考訳(メタデータ) (2024-06-19T08:07:14Z) - Explore In-Context Segmentation via Latent Diffusion Models [132.26274147026854]
インコンテキストセグメンテーションは、与えられた参照画像を使ってオブジェクトをセグメンテーションすることを目的としている。
既存のほとんどのアプローチでは、視覚的プロンプトと入力画像クエリの相関を構築するために、メトリックラーニングやマスク付きイメージモデリングを採用しています。
この研究は、新しい視点から問題にアプローチし、コンテキスト内セグメンテーションのための潜在拡散モデルの能力を解き放つ。
論文 参考訳(メタデータ) (2024-03-14T17:52:31Z) - Fine-tuning vision foundation model for crack segmentation in civil infrastructures [13.731957127190274]
セグメンテーションにおける基礎モデルを微調整するために、微調整法が採用される:セグメンション・アシング・モデル(SAM)
CrackSAMは、特に薄暗い照明、影、道路標識、建設継手、その他の干渉要因などの困難な条件下で、顕著な優位性を示す。
これらのクロスシナリオの結果は、基礎モデルの卓越したゼロショット能力を示し、土木工学におけるビジョンモデルを開発するための新しいアイデアを提供する。
論文 参考訳(メタデータ) (2023-12-07T11:39:11Z) - Zero-Shot Segmentation of Eye Features Using the Segment Anything Model (SAM) [8.529233820032678]
Segment Anything Model (SAM)は、画像セグメンテーションのための最初の基礎モデルである。
本研究では,VR機器で記録された視線画像から特徴を分割するSAMの能力を評価する。
我々の調査はSAMのゼロショット学習能力と、バウンディングボックスやポイントクリックのようなプロンプトの有効性に焦点を当てている。
論文 参考訳(メタデータ) (2023-11-14T11:05:08Z) - MosaicFusion: Diffusion Models as Data Augmenters for Large Vocabulary Instance Segmentation [104.03166324080917]
MosaicFusionは、大語彙のインスタンスセグメンテーションのための、単純で効果的な拡散に基づくデータ拡張手法である。
本手法はトレーニングフリーであり,ラベル管理に依存しない。
LVISロングテールおよびオープンボキャブラリベンチマークの実験結果は、MosaicFusionが既存のインスタンスセグメンテーションモデルの性能を大幅に改善できることを示した。
論文 参考訳(メタデータ) (2023-09-22T17:59:42Z) - Semantic-SAM: Segment and Recognize Anything at Any Granularity [83.64686655044765]
本稿では,任意の粒度でセグメンテーションと認識を可能にする汎用画像セグメンテーションモデルであるSemantic-SAMを紹介する。
複数のデータセットを3つの粒度に集約し、オブジェクトとパーツの分離した分類を導入する。
マルチグラニュラリティ機能を実現するために,各クリックで複数のレベルのマスクを生成できるマルチ選択学習方式を提案する。
論文 参考訳(メタデータ) (2023-07-10T17:59:40Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。