論文の概要: Segment Any Mesh
- arxiv url: http://arxiv.org/abs/2408.13679v2
- Date: Sun, 09 Mar 2025 21:11:26 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-03-11 15:41:19.105293
- Title: Segment Any Mesh
- Title(参考訳): Segment Any Mesh
- Authors: George Tang, William Zhao, Logan Ford, David Benhaim, Paul Zhang,
- Abstract要約: ゼロショットメッシュ部分分割法であるSegment Any Meshを提案する。
本手法は,マルチモーダルレンダリングと2D-to-3Dリフトの2段階で動作する。
提案手法を,頑健でよく評価された形状解析手法である形状寸法関数と比較し,本手法が性能に匹敵するか否かを示す。
- 参考スコア(独自算出の注目度): 1.6427658855248815
- License:
- Abstract: We propose Segment Any Mesh, a novel zero-shot mesh part segmentation method that overcomes the limitations of shape analysis-based, learning-based, and contemporary approaches. Our approach operates in two phases: multimodal rendering and 2D-to-3D lifting. In the first phase, multiview renders of the mesh are individually processed through Segment Anything to generate 2D masks. These masks are then lifted into a mesh part segmentation by associating masks that refer to the same mesh part across the multiview renders. We find that applying Segment Anything to multimodal feature renders of normals and shape diameter scalars achieves better results than using only untextured renders of meshes. By building our method on top of Segment Anything, we seamlessly inherit any future improvements made to 2D segmentation. We compare our method with a robust, well-evaluated shape analysis method, Shape Diameter Function, and show that our method is comparable to or exceeds its performance. Since current benchmarks contain limited object diversity, we also curate and release a dataset of generated meshes and use it to demonstrate our method's improved generalization over Shape Diameter Function via human evaluation. We release the code and dataset at https://github.com/gtangg12/samesh
- Abstract(参考訳): 形状解析に基づく,学習に基づく,現代的アプローチの限界を克服する,ゼロショットメッシュ部分分割法であるSegment Any Meshを提案する。
本手法は,マルチモーダルレンダリングと2D-to-3Dリフトの2段階で動作する。
第1フェーズでは、メッシュのマルチビューレンダリングをSegment Anythingを通じて個別に処理し、2Dマスクを生成する。
これらのマスクは、マルチビューレンダリング全体で同じメッシュ部分を参照するマスクを関連付けることでメッシュ部分セグメンテーションに持ち上げられる。
また,Segment Anything を正規のマルチモーダルな特徴レンダリングや形状径スカラーに適用することで,メッシュの非テクスチャレンダリングのみを使用するよりも優れた結果が得られることがわかった。
Segment Anythingの上にメソッドを構築することで、2Dセグメンテーションに対する将来の改善をシームレスに継承します。
提案手法を,頑健でよく評価された形状解析手法である形状寸法関数と比較し,本手法が性能に匹敵するか否かを示す。
現在のベンチマークではオブジェクトの多様性が制限されているため、生成されたメッシュのデータセットをキュレートしてリリースし、それを人間の評価による形状寸法関数に対する一般化の改善を示すために使用します。
コードとデータセットはhttps://github.com/gtangg12/sameshで公開しています。
関連論文リスト
- DMesh++: An Efficient Differentiable Mesh for Complex Shapes [51.75054400014161]
2次元および3次元に新しい微分可能なメッシュ処理法を導入する。
メッシュ分解能を2次元の局所幾何学に適応させて効率よく表現するアルゴリズムを提案する。
本研究では,2次元ポイントクラウドと3次元マルチビュー再構成タスクにおけるアプローチの有効性を実証する。
論文 参考訳(メタデータ) (2024-12-21T21:16:03Z) - MeshSegmenter: Zero-Shot Mesh Semantic Segmentation via Texture Synthesis [27.703204488877038]
MeshSegmenterは、ゼロショット3Dセマンティックセグメンテーション用に設計されたフレームワークである。
さまざまなメッシュとセグメント記述の正確な3Dセグメンテーションを提供する。
論文 参考訳(メタデータ) (2024-07-18T16:50:59Z) - SAI3D: Segment Any Instance in 3D Scenes [68.57002591841034]
新規なゼロショット3Dインスタンスセグメンテーション手法であるSAI3Dを紹介する。
我々の手法は3Dシーンを幾何学的プリミティブに分割し、段階的に3Dインスタンスセグメンテーションにマージする。
ScanNet、Matterport3D、さらに難しいScanNet++データセットに関する実証的な評価は、我々のアプローチの優位性を示している。
論文 参考訳(メタデータ) (2023-12-17T09:05:47Z) - Propagating Semantic Labels in Video Data [0.0]
本研究では,映像中のオブジェクトのセグメンテーションを行う手法を提案する。
ビデオのフレームでオブジェクトが見つかると、セグメントは将来のフレームに伝達される。
この方法はSAMとStructure from Motionを組み合わせることで機能する。
論文 参考訳(メタデータ) (2023-10-01T20:32:26Z) - Multimodal Diffusion Segmentation Model for Object Segmentation from
Manipulation Instructions [0.0]
本研究では,自然言語の命令を理解するモデルを構築し,対象の日常オブジェクトに対するセグメンテーションマスクを生成する。
我々は、よく知られたMatterport3DとREVERIEデータセットに基づいて、新しいデータセットを構築します。
MDSMの性能はベースライン法を+10.13で上回った。
論文 参考訳(メタデータ) (2023-07-17T16:07:07Z) - Semantic-SAM: Segment and Recognize Anything at Any Granularity [83.64686655044765]
本稿では,任意の粒度でセグメンテーションと認識を可能にする汎用画像セグメンテーションモデルであるSemantic-SAMを紹介する。
複数のデータセットを3つの粒度に集約し、オブジェクトとパーツの分離した分類を導入する。
マルチグラニュラリティ機能を実現するために,各クリックで複数のレベルのマスクを生成できるマルチ選択学習方式を提案する。
論文 参考訳(メタデータ) (2023-07-10T17:59:40Z) - SAM3D: Segment Anything in 3D Scenes [33.57040455422537]
本稿では,RGB画像のSegment-Anything Model(SAM)を利用して3次元点雲のマスクを予測できる新しいフレームワークを提案する。
RGB画像が配置された3Dシーンの点雲に対して、まずRGB画像のセグメンテーションマスクをSAMで予測し、2Dマスクを3Dポイントに投影する。
我々のアプローチはScanNetデータセットを用いて実験し、SAM3Dがトレーニングや微調整なしに合理的かつきめ細かな3Dセグメンテーション結果が得られることを示した。
論文 参考訳(メタデータ) (2023-06-06T17:59:51Z) - Segment Anything in 3D with Radiance Fields [83.14130158502493]
本稿では,Segment Anything Model (SAM) を一般化して3次元オブジェクトをセグメント化する。
提案手法をSA3D, 略してSegment Anything in 3Dと呼ぶ。
実験では,SA3Dが様々なシーンに適応し,数秒で3Dセグメンテーションを実現することを示す。
論文 参考訳(メタデータ) (2023-04-24T17:57:15Z) - Mask3D: Mask Transformer for 3D Semantic Instance Segmentation [89.41640045953378]
一般的なTransformerビルディングブロックを利用して、3Dポイントクラウドからインスタンスマスクを直接予測できることが示されています。
Transformerデコーダを使用して、インスタンスクエリは、複数のスケールでクラウド機能をポイントする反復的な参加者によって学習される。
Mask3Dは、新しい最先端ScanNetテスト(+6.2 mAP)、S3DIS 6-fold(+10.1 mAP)、LS3D(+11.2 mAP)、ScanNet200テスト(+12.4 mAP)を設定する。
論文 参考訳(メタデータ) (2022-10-06T17:55:09Z) - RefineMask: Towards High-Quality Instance Segmentation with Fine-Grained
Features [53.71163467683838]
RefineMaskは、オブジェクトやシーンの高品質なインスタンスセグメンテーションのための新しい方法です。
インスタンス毎のセグメンテーションプロセス中に粒度の細かい機能を多段階的に組み込む。
以前のほとんどのメソッドで過剰にスムースされたオブジェクトの曲がった部分のようなハードケースをセグメンテーションすることに成功します。
論文 参考訳(メタデータ) (2021-04-17T15:09:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。