論文の概要: nvTorchCam: An Open-source Library for Camera-Agnostic Differentiable Geometric Vision
- arxiv url: http://arxiv.org/abs/2410.12074v1
- Date: Tue, 15 Oct 2024 21:24:31 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-10-17 13:42:23.032422
- Title: nvTorchCam: An Open-source Library for Camera-Agnostic Differentiable Geometric Vision
- Title(参考訳): nvTorchCam: カメラに依存しない幾何学的視覚のためのオープンソースライブラリ
- Authors: Daniel Lichy, Hang Su, Abhishek Badki, Jan Kautz, Orazio Gallo,
- Abstract要約: 我々は、ディープラーニングアルゴリズムをカメラモデル非依存にするように設計されたApache 2.0ライセンスの下で、オープンソースのライブラリであるnvTorchCamを紹介した。
nvTorchCamはプロジェクションやアンプロジェクションといった重要なカメラ操作を抽象化し、開発者はアルゴリズムを一度実装し、様々なカメラモデルに適用することができる。
- 参考スコア(独自算出の注目度): 54.047353679741086
- License:
- Abstract: We introduce nvTorchCam, an open-source library under the Apache 2.0 license, designed to make deep learning algorithms camera model-independent. nvTorchCam abstracts critical camera operations such as projection and unprojection, allowing developers to implement algorithms once and apply them across diverse camera models--including pinhole, fisheye, and 360 equirectangular panoramas, which are commonly used in automotive and real estate capture applications. Built on PyTorch, nvTorchCam is fully differentiable and supports GPU acceleration and batching for efficient computation. Furthermore, deep learning models trained for one camera type can be directly transferred to other camera types without requiring additional modification. In this paper, we provide an overview of nvTorchCam, its functionality, and present various code examples and diagrams to demonstrate its usage. Source code and installation instructions can be found on the nvTorchCam GitHub page at https://github.com/NVlabs/nvTorchCam.
- Abstract(参考訳): 我々は、ディープラーニングアルゴリズムをカメラモデルに依存しないものにするために設計された、Apache 2.0ライセンスの下でオープンソースライブラリであるnvTorchCamを紹介した。
nvTorchCamはプロジェクションやアンプロジェクションなどの重要なカメラ操作を抽象化し、開発者はアルゴリズムを一度実装し、ピンホール、魚眼、360度の等方形のパノラマを含む様々なカメラモデルに適用することができる。
PyTorch上に構築されたnvTorchCamは、完全に微分可能で、GPUアクセラレーションとバッチ処理をサポートし、効率的な計算を行う。
さらに、あるカメラタイプのために訓練されたディープラーニングモデルは、追加の修正を必要とせずに、他のカメラタイプに直接転送することができる。
本稿では、nvTorchCamとその機能の概要と、その使用方法を示すための様々なコード例と図を示す。
ソースコードとインストール手順は、https://github.com/NVlabs/nvTorchCamのnvTorchCam GitHubページにある。
関連論文リスト
- Extraction Of Cumulative Blobs From Dynamic Gestures [0.0]
ジェスチャー認識は、コンピュータが人間の動きをコマンドとして解釈できるCV技術に基づいている。
モーションキャプチャー用のカメラとして、簡単なナイトビジョンカメラが使用できる。
カメラからのビデオストリームは、OpenCVモジュールを実行するPythonプログラムを備えたRaspberry Piに入力される。
論文 参考訳(メタデータ) (2025-01-07T18:59:28Z) - Generating 3D-Consistent Videos from Unposed Internet Photos [68.944029293283]
カメラパラメータなどの3Dアノテーションを使わずに,スケーラブルな3D対応ビデオモデルをトレーニングする。
その結果,映像やマルチビューインターネット写真などの2次元データのみを用いて,シーンレベルの3D学習をスケールアップできることが示唆された。
論文 参考訳(メタデータ) (2024-11-20T18:58:31Z) - Training-free Camera Control for Video Generation [19.526135830699882]
本稿では,市販ビデオ拡散モデルに対して,カメラの動き制御を実現するためのトレーニングフリーで堅牢なソリューションを提案する。
本手法では,カメラ注釈付きデータセットの教師付き微調整やデータ拡張による自己教師型トレーニングは不要である。
論文 参考訳(メタデータ) (2024-06-14T15:33:00Z) - CamCo: Camera-Controllable 3D-Consistent Image-to-Video Generation [117.16677556874278]
我々はCamCoを導入し、細粒度カメラのポーズ制御を画像からビデオへ生成する。
生成したビデオの3D一貫性を高めるため,各アテンションブロックにエピポーラアテンションモジュールを統合する。
実験の結果,CamCoは従来のモデルに比べて3次元の整合性とカメラ制御能力を大幅に向上することがわかった。
論文 参考訳(メタデータ) (2024-06-04T17:27:19Z) - CameraCtrl: Enabling Camera Control for Text-to-Video Generation [86.36135895375425]
ユーザーが希望するコンテンツを作成することができるため、ビデオ生成において制御性は重要な役割を担っている。
既存のモデルは、撮影言語として機能するカメラポーズの正確な制御をほとんど見落としていた。
我々は、テキスト・トゥ・ビデオ(T2V)モデルの正確なカメラポーズ制御を可能にするCameraCtrlを紹介する。
論文 参考訳(メタデータ) (2024-04-02T16:52:41Z) - PyTorchVideo: A Deep Learning Library for Video Understanding [71.89124881732015]
PyTorchVideoは、ビデオ理解タスクのためのオープンソースのディープラーニングライブラリである。
マルチモーダルデータローディング、変換、モデルを含む、ビデオ理解ツールのフルスタックをカバーする。
ライブラリはPyTorchをベースにしており、任意のトレーニングフレームワークで使用することができる。
論文 参考訳(メタデータ) (2021-11-18T18:59:58Z) - FLEX: Parameter-free Multi-view 3D Human Motion Reconstruction [70.09086274139504]
マルチビューアルゴリズムはカメラパラメータ、特にカメラ間の相対的な位置に強く依存します。
エンドツーエンドのパラメータフリーマルチビューモデルであるFLEXを紹介します。
Human3.6MおよびKTH Multi-view Football IIデータセットの結果を実証する。
論文 参考訳(メタデータ) (2021-05-05T09:08:12Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。