論文の概要: TextureSAM: Towards a Texture Aware Foundation Model for Segmentation
- arxiv url: http://arxiv.org/abs/2505.16540v1
- Date: Thu, 22 May 2025 11:31:56 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-23 17:12:48.254941
- Title: TextureSAM: Towards a Texture Aware Foundation Model for Segmentation
- Title(参考訳): TextureSAM: セグメンテーションのためのテクスチャ認識基盤モデルを目指して
- Authors: Inbal Cohen, Boaz Meivar, Peihan Tu, Shai Avidan, Gal Oren,
- Abstract要約: Segment Anything Models (SAM)は、さまざまなデータセットにわたるオブジェクトセグメンテーションタスクにおいて、驚くべき成功を収めた。
SAMは主に大規模なセマンティックセグメンテーションデータセットに基づいて訓練されている。
この制限は、医用画像、物質分類、リモートセンシングなどの領域において重要である。
テクスチャを意識した新しい基礎モデルであるTextureSAMを導入し,テクスチャを優先するシナリオにおいて,より優れたセグメンテーションを実現する。
- 参考スコア(独自算出の注目度): 10.97856946049713
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: Segment Anything Models (SAM) have achieved remarkable success in object segmentation tasks across diverse datasets. However, these models are predominantly trained on large-scale semantic segmentation datasets, which introduce a bias toward object shape rather than texture cues in the image. This limitation is critical in domains such as medical imaging, material classification, and remote sensing, where texture changes define object boundaries. In this study, we investigate SAM's bias toward semantics over textures and introduce a new texture-aware foundation model, TextureSAM, which performs superior segmentation in texture-dominant scenarios. To achieve this, we employ a novel fine-tuning approach that incorporates texture augmentation techniques, incrementally modifying training images to emphasize texture features. By leveraging a novel texture-alternation of the ADE20K dataset, we guide TextureSAM to prioritize texture-defined regions, thereby mitigating the inherent shape bias present in the original SAM model. Our extensive experiments demonstrate that TextureSAM significantly outperforms SAM-2 on both natural (+0.2 mIoU) and synthetic (+0.18 mIoU) texture-based segmentation datasets. The code and texture-augmented dataset will be publicly available.
- Abstract(参考訳): Segment Anything Models (SAM)は、さまざまなデータセットにわたるオブジェクトセグメンテーションタスクにおいて、驚くべき成功を収めた。
しかし、これらのモデルは大規模なセマンティックセグメンテーションデータセットに基づいて主に訓練されており、画像のテクスチャキューよりもオブジェクト形状に偏りが生じる。
この制限は、医用画像、物質分類、リモートセンシングなどの領域において重要であり、テクスチャの変化がオブジェクトの境界を定義する。
本研究では,テクスチャのセマンティクスに対するSAMのバイアスについて検討し,テクスチャに優越したシナリオにおいて優れたセグメンテーションを行うテクスチャ認識基盤モデルであるTextureSAMを導入する。
これを実現するために,テクスチャ強化技術を導入し,テクスチャ特徴を強調するためにトレーニング画像を漸進的に修正する,新しい微調整手法を採用した。
ADE20Kデータセットの新しいテクスチャ変換を活用することで、テクスチャ定義された領域を優先し、元のSAMモデルに存在する固有の形状バイアスを緩和する。
以上の結果から,TextureSAMは天然(+0.2 mIoU)および合成(+0.18 mIoU)のテクスチャベースセグメンテーションデータセットにおいてSAM-2よりも有意に優れていた。
コードとテクスチャ拡張されたデータセットが公開される。
関連論文リスト
- TriTex: Learning Texture from a Single Mesh via Triplane Semantic Features [78.13246375582906]
本研究では,1つのテクスチャメッシュから体積テクスチャ場を学習し,セマンティックな特徴を対象色にマッピングする手法を提案する。
本手法は,ゲーム開発などのアプリケーションにおいて,3次元モデル間で優れたテクスチャ品質を実現する。
論文 参考訳(メタデータ) (2025-03-20T18:35:03Z) - Err on the Side of Texture: Texture Bias on Real Data [3.5990273573803058]
テクスチャ・アソシエーション・バリュー(TAV)は、オブジェクトを分類する際に特定のテクスチャの存在に依存するモデルがいかに強く依存しているかを定量化する新しいメトリクスである。
以上の結果から, テクスチャバイアスは, その90%以上は, 学習したテクスチャと真のラベルとが一致していないテクスチャを含む自然対逆例の存在を説明できることがわかった。
論文 参考訳(メタデータ) (2024-12-13T22:53:16Z) - NeRF-Texture: Synthesizing Neural Radiance Field Textures [77.24205024987414]
与えられた多視点画像からテクスチャを捕捉・合成するためのニューラルレージアンス場(NeRF)を用いた新しいテクスチャ合成法を提案する。
提案したNeRFテクスチャ表現では、微細な幾何学的詳細を持つシーンをメソ構造テクスチャと基盤形状に分割する。
我々は潜伏特徴のパッチマッチングによってNeRFベースのテクスチャを合成できる。
論文 参考訳(メタデータ) (2024-12-13T09:41:48Z) - Textured Mesh Saliency: Bridging Geometry and Texture for Human Perception in 3D Graphics [50.23625950905638]
6自由度(6-DOF)VR環境下での革新的な視線追跡実験により構築したテクスチャメッシュ・サリエンシのための新しいデータセットを提案する。
本モデルでは,各三角形の面を個々の単位として扱い,各局所表面領域の重要性を反映した塩分濃度値を割り当てることで,テクスチャメッシュ表面の塩分濃度マップを推定する。
論文 参考訳(メタデータ) (2024-12-11T08:27:33Z) - Infinite Texture: Text-guided High Resolution Diffusion Texture Synthesis [61.189479577198846]
Infinite Textureはテキストプロンプトから任意の大きさのテクスチャ画像を生成する方法である。
本手法は,1つのテクスチャ上に拡散モデルを微調整し,その分布をモデルの出力領域に埋め込むことを学習する。
1つのGPU上で任意の解像度の出力テクスチャ画像を生成するためのスコアアグリゲーションストラテジーによって、我々の微調整拡散モデルが生成される。
論文 参考訳(メタデータ) (2024-05-13T21:53:09Z) - TextureDreamer: Image-guided Texture Synthesis through Geometry-aware
Diffusion [64.49276500129092]
TextureDreamerは画像誘導型テクスチャ合成法である。
少数の入力画像から任意のカテゴリでターゲットの3D形状に光沢のあるテクスチャを転送することができる。
論文 参考訳(メタデータ) (2024-01-17T18:55:49Z) - Learning Statistical Texture for Semantic Segmentation [53.7443670431132]
セマンティックセグメンテーションのための新しい統計テクスチャ学習ネットワーク(STLNet)を提案する。
STLNetは、初めて低レベルの情報の分布を分析し、それらをタスクに効率的に活用する。
1)テクスチャ関連情報を捕捉し,テクスチャの詳細を強化するためのテクスチャエンハンスモジュール(TEM),(2)ピラミッドテクスチャ特徴抽出モジュール(PTFEM)の2つのモジュールを導入し,複数のスケールから統計的テクスチャ特徴を効果的に抽出する。
論文 参考訳(メタデータ) (2021-03-06T15:05:35Z) - Learning Texture Invariant Representation for Domain Adaptation of
Semantic Segmentation [19.617821473205694]
合成データで訓練されたモデルが実際のデータに一般化することは困難である。
我々はスタイル伝達アルゴリズムを用いて合成画像のテクスチャを多様性する。
我々は、ターゲットテクスチャを直接監視するために、自己学習でモデルを微調整する。
論文 参考訳(メタデータ) (2020-03-02T13:11:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。