論文の概要: 3DB: A Framework for Debugging Computer Vision Models
- arxiv url: http://arxiv.org/abs/2106.03805v1
- Date: Mon, 7 Jun 2021 17:16:12 GMT
- ステータス: 処理完了
- システム内更新日: 2021-06-08 18:45:54.234373
- Title: 3DB: A Framework for Debugging Computer Vision Models
- Title(参考訳): 3DB:コンピュータビジョンモデルをデバッグするフレームワーク
- Authors: Guillaume Leclerc, Hadi Salman, Andrew Ilyas, Sai Vemprala, Logan
Engstrom, Vibhav Vineet, Kai Xiao, Pengchuan Zhang, Shibani Santurkar, Greg
Yang, Ashish Kapoor, Aleksander Madry
- Abstract要約: 3DBでは、コンピュータビジョンシステムの脆弱性を発見することができる。
3DBは、以前の作業から多くの分析をキャプチャし、一般化する。
システムによって生成された洞察が,物理世界へ伝達されることが判明した。
- 参考スコア(独自算出の注目度): 105.45042148499323
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We introduce 3DB: an extendable, unified framework for testing and debugging
vision models using photorealistic simulation. We demonstrate, through a wide
range of use cases, that 3DB allows users to discover vulnerabilities in
computer vision systems and gain insights into how models make decisions. 3DB
captures and generalizes many robustness analyses from prior work, and enables
one to study their interplay. Finally, we find that the insights generated by
the system transfer to the physical world.
We are releasing 3DB as a library (https://github.com/3db/3db) alongside a
set of example analyses, guides, and documentation: https://3db.github.io/3db/ .
- Abstract(参考訳): フォトリアリスティックシミュレーションを用いて視覚モデルをテストおよびデバッグするための拡張可能な統合フレームワークである3DBを紹介する。
幅広いユースケースを通じて、ユーザがコンピュータビジョンシステムの脆弱性を発見し、モデルの意思決定方法に関する洞察を得ることができます。
3DBは、以前の作業から多くの堅牢性分析をキャプチャし、一般化し、それらの相互作用を研究することができる。
最後に、システムが生み出す洞察が物理的世界へと移ることを見出す。
私たちは3DBをライブラリとしてリリースしています(https://github.com/3db/3db)。
関連論文リスト
- 3DiffTection: 3D Object Detection with Geometry-Aware Diffusion Features [70.50665869806188]
3DiffTectionは、単一の画像から3Dオブジェクトを検出する最先端の方法である。
拡散モデルを微調整し、単一の画像に条件付けされた新しいビュー合成を行う。
さらに、検出監視により、ターゲットデータ上でモデルをトレーニングする。
論文 参考訳(メタデータ) (2023-11-07T23:46:41Z) - Towards Fair and Comprehensive Comparisons for Image-Based 3D Object
Detection [73.32210225999056]
モジュール設計と3Dオブジェクト検出のための統一的なトレーニング標準の構築を行う。
また,検出モデルの詳細な特徴を評価するために,誤り診断ツールボックスを設計する。
論文 参考訳(メタデータ) (2023-10-09T06:43:48Z) - SOGDet: Semantic-Occupancy Guided Multi-view 3D Object Detection [19.75965521357068]
本稿では,SOGDet(Semantic-Occupancy Guided Multi-view Object Detection)と呼ばれる新しい手法を提案する。
以上の結果から,SOGDet は nuScenes Detection Score (NDS) と平均平均精度 (mAP) の3つのベースライン法の性能を一貫して向上させることがわかった。
これは、3Dオブジェクト検出と3Dセマンティック占有の組み合わせが、3D環境をより包括的に認識し、より堅牢な自律運転システムの構築を支援することを示唆している。
論文 参考訳(メタデータ) (2023-08-26T07:38:21Z) - AutoDecoding Latent 3D Diffusion Models [95.7279510847827]
本稿では,3次元オートデコーダをコアとした静的・明瞭な3次元アセットの生成に対して,新しいアプローチを提案する。
3D Autodecoderフレームワークは、ターゲットデータセットから学んだプロパティを潜時空間に埋め込む。
次に、適切な中間体積潜在空間を特定し、ロバストな正規化と非正規化演算を導入する。
論文 参考訳(メタデータ) (2023-07-07T17:59:14Z) - SAM3D: Zero-Shot 3D Object Detection via Segment Anything Model [59.04877271899894]
本稿では,SAMのゼロショット能力を3次元物体検出に適用することを検討する。
大規模オープンデータセット上でオブジェクトを検出し,有望な結果を得るために,SAMを用いたBEV処理パイプラインを提案する。
論文 参考訳(メタデータ) (2023-06-04T03:09:21Z) - Occ3D: A Large-Scale 3D Occupancy Prediction Benchmark for Autonomous
Driving [34.368848580725576]
我々は,任意のシーンに対して,濃密で可視性に配慮したラベルを生成するラベル生成パイプラインを開発した。
このパイプラインは、ボクセルの密度化、推論、画像誘導ボクセル精製の3段階からなる。
我々は、Occ3Dベンチマークにおいて優れた性能を示すCTF-Occネットワークと呼ばれる新しいモデルを提案する。
論文 参考訳(メタデータ) (2023-04-27T17:40:08Z) - GeoMIM: Towards Better 3D Knowledge Transfer via Masked Image Modeling
for Multi-view 3D Understanding [42.780417042750315]
マルチビューカメラによる3D検出は、コンピュータビジョンにおいて難しい問題である。
最近の研究は、事前訓練されたLiDAR検出モデルを利用して、知識をカメラベースの学生ネットワークに転送する。
我々は,LiDARモデルの知識を事前学習のパラダイムに伝達するための拡張幾何マスク画像モデリング(GeoMIM)を提案する。
論文 参考訳(メタデータ) (2023-03-20T17:59:03Z) - 3D-LatentMapper: View Agnostic Single-View Reconstruction of 3D Shapes [0.0]
視覚変換器(ViT)の中間潜時空間と共同画像テキスト表現モデル(CLIP)を高速かつ効率的なシングルビュー再構成(SVR)に活用する新しいフレームワークを提案する。
本研究ではShapeNetV2データセットを用いてSOTA法との比較実験を行い,本手法の有効性を実証する。
論文 参考訳(メタデータ) (2022-12-05T11:45:26Z) - Survey and Systematization of 3D Object Detection Models and Methods [3.472931603805115]
2012-2021年の3次元物体検出における最近の進展を包括的に調査する。
基本概念を導入し、過去10年間に現れた幅広い異なるアプローチに焦点を当てます。
本稿では,これらの手法を今後の開発・評価・アプリケーション活動の指針として,実践的な枠組みで比較するシステム化を提案する。
論文 参考訳(メタデータ) (2022-01-23T20:06:07Z) - BANMo: Building Animatable 3D Neural Models from Many Casual Videos [135.64291166057373]
本稿では,特殊なセンサや事前定義されたテンプレート形状を必要としないBANMoを提案する。
Banmoは、多くのモノクロカジュアルビデオから高忠実な3Dモデルを、差別化可能なレンダリングフレームワークで構築する。
実際のデータセットと合成データセットでは、BANMoは人間や動物の以前の研究よりも高忠実な3D再構成を示している。
論文 参考訳(メタデータ) (2021-12-23T18:30:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。