論文の概要: Towards Fine-grained Large Object Segmentation 1st Place Solution to 3D
AI Challenge 2020 -- Instance Segmentation Track
- arxiv url: http://arxiv.org/abs/2009.04650v1
- Date: Thu, 10 Sep 2020 02:55:27 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-20 03:35:31.167271
- Title: Towards Fine-grained Large Object Segmentation 1st Place Solution to 3D
AI Challenge 2020 -- Instance Segmentation Track
- Title(参考訳): 粒度の大きいオブジェクトセグメンテーションに向けて - 2020年の3D AIチャレンジへの第1の解決 -- インスタンスセグメンテーショントラック
- Authors: Zehui Chen and Qiaofei Li and Feng Zhao
- Abstract要約: このレポートでは、3D AI Challenge 2020におけるインスタンストラックのためのTeam 'FineGrainedSeg'のソリューションを紹介します。
3D-Futureで非常に大きなオブジェクトを扱うために、HTCやSOLOv2に比べてきめ細かいマスクを出力するPointRendを基本フレームワークとして採用しています。
最後の提出は5つのPointRendモデルのアンサンブルで、検証とテストのリーダーボードの両方で1位を獲得します。
- 参考スコア(独自算出の注目度): 7.096969332313435
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This technical report introduces our solutions of Team 'FineGrainedSeg' for
Instance Segmentation track in 3D AI Challenge 2020. In order to handle
extremely large objects in 3D-FUTURE, we adopt PointRend as our basic
framework, which outputs more fine-grained masks compared to HTC and SOLOv2.
Our final submission is an ensemble of 5 PointRend models, which achieves the
1st place on both validation and test leaderboards. The code is available at
https://github.com/zehuichen123/3DFuture_ins_seg.
- Abstract(参考訳): このテクニカルレポートでは、3D AI Challenge 2020で、インスタンスセグメンテーショントラックのためのTeam 'FineGrainedSeg'のソリューションを紹介します。
3d未来で非常に大きなオブジェクトを扱うために、我々はpointrendを基本フレームワークとして採用し、htcやsolov2よりもきめ細かいマスクを出力します。
最後の提出は5つのPointRendモデルのアンサンブルで、検証とテストのリーダーボードの両方で1位を獲得します。
コードはhttps://github.com/zehuichen123/3dfuture_ins_segで入手できる。
関連論文リスト
- PointSeg: A Training-Free Paradigm for 3D Scene Segmentation via
Foundation Models [53.45712917347696]
我々は、市販の視覚基盤モデルを利用して、3Dシーン認識タスクに対処する、新しいトレーニングフリーパラダイムであるPointSegを提案する。
PointSegは正確な3Dプロンプトを取得してフレーム間で対応するピクセルを調整することで、任意の3Dシーンを分割することができる。
このアプローチは,ScanNet,ScanNet++,KITTI-360データセット上の13.4$%,11.3$%,12$%のmAPで最先端のスペシャリストモデルを大幅に上回る。
論文 参考訳(メタデータ) (2024-03-11T03:28:20Z) - SAM-guided Graph Cut for 3D Instance Segmentation [63.797612618531346]
本稿では,3次元画像情報と多視点画像情報の同時利用による3次元インスタンス分割の課題に対処する。
本稿では,3次元インスタンスセグメンテーションのための2次元セグメンテーションモデルを効果的に活用する新しい3D-to-2Dクエリフレームワークを提案する。
本手法は,ロバストなセグメンテーション性能を実現し,異なるタイプのシーンにまたがる一般化を実現する。
論文 参考訳(メタデータ) (2023-12-13T18:59:58Z) - Segment Any 3D Gaussians [90.24631304563835]
本稿では,新しい3次元対話型セグメンテーション手法であるSegment Any 3D GAussians (SAGA)を紹介する。
SAGAは2次元セグメンテーションの基礎モデルを3次元ガウススプラッティング(3DGS)とシームレスにブレンドする。
SAGAはミリ秒で3Dセグメンテーションを完了でき、以前のSOTAと比べて1000倍の加速を実現している。
論文 参考訳(メタデータ) (2023-12-01T17:15:24Z) - 3DCoMPaT$^{++}$: An improved Large-scale 3D Vision Dataset for
Compositional Recognition [53.97029821609132]
3DCoMPaT$++$は、1000万以上のスタイリングされた3D形状の1億6000万レンダリングビューを備えたマルチモーダル2D/3Dデータセットである。
我々は,3Dオブジェクトの部品の合成を総合的に認識し,グラウンドドコMPaT認識(GCR)と呼ばれる新しいタスクを導入する。
論文 参考訳(メタデータ) (2023-10-27T22:01:43Z) - SATR: Zero-Shot Semantic Segmentation of 3D Shapes [74.08209893396271]
大規模オフザシェルフ2次元画像認識モデルを用いて3次元形状のゼロショットセマンティックセマンティックセマンティックセグメンテーションの課題について検討する。
本研究では、SATRアルゴリズムを開発し、ShapeNetPartと提案したFAUSTベンチマークを用いて評価する。
SATRは最先端のパフォーマンスを達成し、ベースラインアルゴリズムを平均mIoUの1.3%と4%で上回っている。
論文 参考訳(メタデータ) (2023-04-11T00:43:16Z) - 2nd Place Solution for IJCAI-PRICAI 2020 3D AI Challenge: 3D Object
Reconstruction from A Single Image [9.31533617476093]
我々はAtlasNetの亜種を開発し、単一の2次元画像を消費し、2次元から3次元のマッピングを通して3次元の点雲を生成する。
最終ラウンドでは,スコアが70.88ドル,シャムファー距離が36.87ドル,平均Fスコアが59.18ドルで2位となる。
論文 参考訳(メタデータ) (2021-05-28T03:54:39Z) - FCOS3D: Fully Convolutional One-Stage Monocular 3D Object Detection [78.00922683083776]
一般的な2D検出器をこの3Dタスクで動作させることは簡単ではない。
本報告では,完全畳み込み型単段検出器を用いた手法を用いてこの問題を考察する。
私たちのソリューションは、NeurIPS 2020のnuScenes 3D検出チャレンジのすべてのビジョンのみの方法の中で1位を獲得します。
論文 参考訳(メタデータ) (2021-04-22T09:35:35Z) - 2nd Place Solution to Instance Segmentation of IJCAI 3D AI Challenge
2020 [4.1362356283102795]
PointRend を用いた Mask R-CNN は,高品質なオブジェクト境界を出力する基本セグメンテーションフレームワークとして選択される。
ResNeSt、FPN、DCNv2を統合したより良いエンジンと、セグメンテーション性能を改善するために様々な効果的なトリックを適用した。
論文 参考訳(メタデータ) (2020-10-21T12:53:01Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。