論文の概要: nvTorchCam: An Open-source Library for Camera-Agnostic Differentiable Geometric Vision
- arxiv url: http://arxiv.org/abs/2410.12074v1
- Date: Tue, 15 Oct 2024 21:24:31 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-10-17 13:42:23.032422
- Title: nvTorchCam: An Open-source Library for Camera-Agnostic Differentiable Geometric Vision
- Title(参考訳): nvTorchCam: カメラに依存しない幾何学的視覚のためのオープンソースライブラリ
- Authors: Daniel Lichy, Hang Su, Abhishek Badki, Jan Kautz, Orazio Gallo,
- Abstract要約: 我々は、ディープラーニングアルゴリズムをカメラモデル非依存にするように設計されたApache 2.0ライセンスの下で、オープンソースのライブラリであるnvTorchCamを紹介した。
nvTorchCamはプロジェクションやアンプロジェクションといった重要なカメラ操作を抽象化し、開発者はアルゴリズムを一度実装し、様々なカメラモデルに適用することができる。
- 参考スコア(独自算出の注目度): 54.047353679741086
- License:
- Abstract: We introduce nvTorchCam, an open-source library under the Apache 2.0 license, designed to make deep learning algorithms camera model-independent. nvTorchCam abstracts critical camera operations such as projection and unprojection, allowing developers to implement algorithms once and apply them across diverse camera models--including pinhole, fisheye, and 360 equirectangular panoramas, which are commonly used in automotive and real estate capture applications. Built on PyTorch, nvTorchCam is fully differentiable and supports GPU acceleration and batching for efficient computation. Furthermore, deep learning models trained for one camera type can be directly transferred to other camera types without requiring additional modification. In this paper, we provide an overview of nvTorchCam, its functionality, and present various code examples and diagrams to demonstrate its usage. Source code and installation instructions can be found on the nvTorchCam GitHub page at https://github.com/NVlabs/nvTorchCam.
- Abstract(参考訳): 我々は、ディープラーニングアルゴリズムをカメラモデルに依存しないものにするために設計された、Apache 2.0ライセンスの下でオープンソースライブラリであるnvTorchCamを紹介した。
nvTorchCamはプロジェクションやアンプロジェクションなどの重要なカメラ操作を抽象化し、開発者はアルゴリズムを一度実装し、ピンホール、魚眼、360度の等方形のパノラマを含む様々なカメラモデルに適用することができる。
PyTorch上に構築されたnvTorchCamは、完全に微分可能で、GPUアクセラレーションとバッチ処理をサポートし、効率的な計算を行う。
さらに、あるカメラタイプのために訓練されたディープラーニングモデルは、追加の修正を必要とせずに、他のカメラタイプに直接転送することができる。
本稿では、nvTorchCamとその機能の概要と、その使用方法を示すための様々なコード例と図を示す。
ソースコードとインストール手順は、https://github.com/NVlabs/nvTorchCamのnvTorchCam GitHubページにある。
関連論文リスト
- Fisheye-Calib-Adapter: An Easy Tool for Fisheye Camera Model Conversion [5.189602489149301]
本稿では,従来提案されていた魚眼カメラモデルに対する変換ツールを提案する。
ユーザーフレンドリーでシンプルだが、非常に高速で正確で、幅広いモデルの変換機能を提供する。
SLAMなどのアプリケーションでは,本システムを用いて変換したモデルが正しく動作することが確認された。
論文 参考訳(メタデータ) (2024-07-17T08:32:14Z) - Training-free Camera Control for Video Generation [19.526135830699882]
本稿では,市販ビデオ拡散モデルに対して,カメラの動き制御を実現するためのトレーニングフリーで堅牢なソリューションを提案する。
本手法では,カメラ注釈付きデータセットの教師付き微調整やデータ拡張による自己教師型トレーニングは不要である。
論文 参考訳(メタデータ) (2024-06-14T15:33:00Z) - CamCo: Camera-Controllable 3D-Consistent Image-to-Video Generation [117.16677556874278]
我々はCamCoを導入し、細粒度カメラのポーズ制御を画像からビデオへ生成する。
生成したビデオの3D一貫性を高めるため,各アテンションブロックにエピポーラアテンションモジュールを統合する。
実験の結果,CamCoは従来のモデルに比べて3次元の整合性とカメラ制御能力を大幅に向上することがわかった。
論文 参考訳(メタデータ) (2024-06-04T17:27:19Z) - CameraCtrl: Enabling Camera Control for Text-to-Video Generation [86.36135895375425]
ユーザーが希望するコンテンツを作成することができるため、ビデオ生成において制御性は重要な役割を担っている。
既存のモデルは、撮影言語として機能するカメラポーズの正確な制御をほとんど見落としていた。
我々は、テキスト・トゥ・ビデオ(T2V)モデルの正確なカメラポーズ制御を可能にするCameraCtrlを紹介する。
論文 参考訳(メタデータ) (2024-04-02T16:52:41Z) - PyTorchVideo: A Deep Learning Library for Video Understanding [71.89124881732015]
PyTorchVideoは、ビデオ理解タスクのためのオープンソースのディープラーニングライブラリである。
マルチモーダルデータローディング、変換、モデルを含む、ビデオ理解ツールのフルスタックをカバーする。
ライブラリはPyTorchをベースにしており、任意のトレーニングフレームワークで使用することができる。
論文 参考訳(メタデータ) (2021-11-18T18:59:58Z) - FLEX: Parameter-free Multi-view 3D Human Motion Reconstruction [70.09086274139504]
マルチビューアルゴリズムはカメラパラメータ、特にカメラ間の相対的な位置に強く依存します。
エンドツーエンドのパラメータフリーマルチビューモデルであるFLEXを紹介します。
Human3.6MおよびKTH Multi-view Football IIデータセットの結果を実証する。
論文 参考訳(メタデータ) (2021-05-05T09:08:12Z) - DeProCams: Simultaneous Relighting, Compensation and Shape
Reconstruction for Projector-Camera Systems [91.45207885902786]
本稿では,ProCamsの測光および幾何学的マッピングを学習するために,DeProCamsという新しいエンドツーエンドトレーニングモデルを提案する。
DeProCamsは、プロジェクターカメライメージマッピングを、シェーディング属性推定、粗い直接光推定、フォトリアリスティックなニューラルレンダリングの3つのサブプロセスに明示的に分解する。
私たちの実験では、DeProCamsは、期待できる品質と完全に差別化可能な従来の芸術よりも明確な優位性を示している。
論文 参考訳(メタデータ) (2020-03-06T05:49:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。