論文の概要: Torch-Points3D: A Modular Multi-Task Frameworkfor Reproducible Deep
Learning on 3D Point Clouds
- arxiv url: http://arxiv.org/abs/2010.04642v1
- Date: Fri, 9 Oct 2020 15:34:32 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-09 04:04:47.595518
- Title: Torch-Points3D: A Modular Multi-Task Frameworkfor Reproducible Deep
Learning on 3D Point Clouds
- Title(参考訳): torch-points3d: 3dポイントクラウド上で再現可能なディープラーニングのためのモジュール型マルチタスクフレームワーク
- Authors: Thomas Chaton, Nicolas Chaulet, Sofiane Horache, Loic Landrieu
- Abstract要約: Torch-Points3Dは、ディープネットワークの3Dデータの利用を容易にするために設計されたオープンソースのフレームワークである。
私たちのゴールは、より高いレベルの透明性と3Dディープラーニング研究の標準化です。
- 参考スコア(独自算出の注目度): 4.549831511476249
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We introduce Torch-Points3D, an open-source framework designed to facilitate
the use of deep networks on3D data. Its modular design, efficient
implementation, and user-friendly interfaces make it a relevant tool for
research and productization alike. Beyond multiple quality-of-life features,
our goal is to standardize a higher level of transparency and reproducibility
in 3D deep learning research, and to lower its barrier to entry. In this paper,
we present the design principles of Torch-Points3D, as well as extensive
benchmarks of multiple state-of-the-art algorithms and inference schemes across
several datasets and tasks. The modularity of Torch-Points3D allows us to
design fair and rigorous experimental protocols in which all methods are
evaluated in the same conditions. The Torch-Points3D repository
:https://github.com/nicolas-chaulet/torch-points3d
- Abstract(参考訳): 我々は,深層ネットワークを利用した3dデータの利用を容易にするオープンソースフレームワークであるtorch-points3dを紹介する。
そのモジュラーデザイン、効率的な実装、ユーザーフレンドリーなインターフェースは、研究と製品化のための関連するツールになります。
われわれの目標は、複数のQOLを超えて、3Dディープラーニング研究における透明性と再現性の向上を標準化し、参入障壁を低くすることである。
本稿では、torch-points3dの設計原則と、複数の最先端アルゴリズムと複数のデータセットとタスクにわたる推論スキームの広範なベンチマークについて述べる。
Torch-Points3Dのモジュラリティにより、全てのメソッドが同じ条件で評価される公平で厳密な実験プロトコルを設計できる。
Torch-Points3Dリポジトリ :https://github.com/nicolas-chaulet/torch-points3d
関連論文リスト
- CT3D++: Improving 3D Object Detection with Keypoint-induced Channel-wise Transformer [42.68740105997167]
手作りの最小限の設計で3Dオブジェクト検出を行うフレームワークを2つ導入する。
まず,本提案では,各提案において,生点ベースの埋め込み,標準トランスフォーマーエンコーダ,チャンネルワイドデコーダを順次実行するCT3Dを提案する。
次に、幾何学的および意味論的融合に基づく埋め込みを組み込んだCT3D++と呼ばれる拡張ネットワークを提案し、より価値があり包括的な提案認識情報を取り出す。
論文 参考訳(メタデータ) (2024-06-12T12:40:28Z) - CMR3D: Contextualized Multi-Stage Refinement for 3D Object Detection [57.44434974289945]
本稿では,3次元オブジェクト検出(CMR3D)フレームワークのためのコンテキスト型マルチステージリファインメントを提案する。
我々のフレームワークは3Dシーンを入力として取り、シーンの有用なコンテキスト情報を明示的に統合しようと試みている。
3Dオブジェクトの検出に加えて,3Dオブジェクトカウント問題に対するフレームワークの有効性について検討する。
論文 参考訳(メタデータ) (2022-09-13T05:26:09Z) - Paint and Distill: Boosting 3D Object Detection with Semantic Passing
Network [70.53093934205057]
ライダーやカメラセンサーからの3Dオブジェクト検出タスクは、自動運転に不可欠である。
本研究では,既存のライダーベース3D検出モデルの性能向上を図るために,SPNetという新しいセマンティックパスフレームワークを提案する。
論文 参考訳(メタデータ) (2022-07-12T12:35:34Z) - PointMCD: Boosting Deep Point Cloud Encoders via Multi-view Cross-modal
Distillation for 3D Shape Recognition [55.38462937452363]
本稿では,教師として事前訓練されたディープイメージエンコーダ,学生としてディープポイントエンコーダを含む多視点クロスモーダル蒸留アーキテクチャを提案する。
複数ビューの視覚的および幾何学的記述子をペアワイズにアライメントすることで、より強力なディープポイントエンコーダを、疲労や複雑なネットワーク修正を伴わずに得ることができる。
論文 参考訳(メタデータ) (2022-07-07T07:23:20Z) - CVFNet: Real-time 3D Object Detection by Learning Cross View Features [11.402076835949824]
CVFNetと呼ばれるリアルタイムビューベースの1段3Dオブジェクト検出器を提案する。
本稿ではまず,複数の段階において,ポイント・アンド・レンジ・ビュー機能を深く統合した新しいポイント・ラウンジ機能融合モジュールを提案する。
次に, 得られた深度視点特徴を鳥の目視に変換する際に, 3次元形状を良好に維持する特別のスライスピラーを設計する。
論文 参考訳(メタデータ) (2022-03-13T06:23:18Z) - Multi-Task Multi-Sensor Fusion for 3D Object Detection [93.68864606959251]
本稿では,2次元および3次元物体検出と地盤推定と奥行き完了を理由とするエンドツーエンド学習可能なアーキテクチャを提案する。
実験の結果,これらのタスクは相補的であり,様々なレベルで情報を融合することで,ネットワークがよりよい表現を学ぶのに役立つことがわかった。
論文 参考訳(メタデータ) (2020-12-22T22:49:15Z) - Deep Continuous Fusion for Multi-Sensor 3D Object Detection [103.5060007382646]
本稿では,LIDARとカメラを併用して高精度な位置検出を実現する3Dオブジェクト検出器を提案する。
我々は,連続畳み込みを利用して画像とlidar特徴マップを異なるレベルの解像度で融合する,エンドツーエンド学習可能なアーキテクチャを設計した。
論文 参考訳(メタデータ) (2020-12-20T18:43:41Z) - DH3D: Deep Hierarchical 3D Descriptors for Robust Large-Scale 6DoF
Relocalization [56.15308829924527]
生の3D点から直接3次元特徴の検出と記述を共同で学習するシームズネットワークを提案する。
3次元キーポイントを検出するために,局所的な記述子の識別性を教師なしで予測する。
各種ベンチマーク実験により,本手法はグローバルポイントクラウド検索とローカルポイントクラウド登録の両面で競合する結果が得られた。
論文 参考訳(メタデータ) (2020-07-17T20:21:22Z) - MANet: Multimodal Attention Network based Point- View fusion for 3D
Shape Recognition [0.5371337604556311]
本稿では3次元形状認識のためのマルチモーダルアテンション機構に基づく融合ネットワークを提案する。
マルチビューデータの制限を考慮すると,グローバルなポイントクラウド機能を用いてマルチビュー機能をフィルタリングするソフトアテンション方式を導入する。
より具体的には、各マルチビュー画像の全体形状認識への寄与をマイニングすることにより、拡張されたマルチビュー特徴を得る。
論文 参考訳(メタデータ) (2020-02-28T07:00:14Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。