論文の概要: gsplat: An Open-Source Library for Gaussian Splatting
- arxiv url: http://arxiv.org/abs/2409.06765v1
- Date: Tue, 10 Sep 2024 17:57:38 GMT
- ステータス: 処理完了
- システム内更新日: 2024-09-12 17:19:05.386936
- Title: gsplat: An Open-Source Library for Gaussian Splatting
- Title(参考訳): gsplat: ガウススティングのためのオープンソースライブラリ
- Authors: Vickie Ye, Ruilong Li, Justin Kerr, Matias Turkulainen, Brent Yi, Zhuoyang Pan, Otto Seiskari, Jianbo Ye, Jeffrey Hu, Matthew Tancik, Angjoo Kanazawa,
- Abstract要約: gsplatはGaussian Splattingメソッドのトレーニングと開発用に設計されたオープンソースライブラリである。
PyTorchライブラリと互換性のあるPythonバインディングを備えたフロントエンドと、高度に最適化されたカーネルを備えたバックエンドを備えている。
- 参考スコア(独自算出の注目度): 28.65527747971257
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: gsplat is an open-source library designed for training and developing Gaussian Splatting methods. It features a front-end with Python bindings compatible with the PyTorch library and a back-end with highly optimized CUDA kernels. gsplat offers numerous features that enhance the optimization of Gaussian Splatting models, which include optimization improvements for speed, memory, and convergence times. Experimental results demonstrate that gsplat achieves up to 10% less training time and 4x less memory than the original implementation. Utilized in several research projects, gsplat is actively maintained on GitHub. Source code is available at https://github.com/nerfstudio-project/gsplat under Apache License 2.0. We welcome contributions from the open-source community.
- Abstract(参考訳): gsplatはGaussian Splattingメソッドのトレーニングと開発用に設計されたオープンソースライブラリである。
PyTorchライブラリと互換性のあるPythonバインディングを備えたフロントエンドと、高度に最適化されたCUDAカーネルを備えたバックエンドを備える。
gsplatは、速度、メモリ、収束時間の最適化を含むガウススプラッティングモデルの最適化を強化する多くの機能を提供する。
実験の結果,gsplatはトレーニング時間を最大10%削減し,メモリを4倍削減できることがわかった。
いくつかの研究プロジェクトで使用されているgsplatは、GitHubでアクティブにメンテナンスされている。
ソースコードはApache License 2.0の下でhttps://github.com/nerfstudio-project/gsplatで入手できる。
オープンソースコミュニティからのコントリビューションを歓迎します。
関連論文リスト
- Mathematical Supplement for the $\texttt{gsplat}$ Library [31.200552171251708]
本報告では,効率的な微分可能なガウススプラッティングのためのモジュールツールボックスであるgsplatライブラリの数学的詳細について述べる。
これは微分可能なガウススプラッティングの前方および後方通過に関わる計算に対して自己完結した参照を提供する。
論文 参考訳(メタデータ) (2023-12-04T18:50:41Z) - PockEngine: Sparse and Efficient Fine-tuning in a Pocket [62.955793932377524]
さまざまなエッジデバイスで微調整が可能な,小型でスパースで効率的なエンジンであるPockEngineを紹介します。
PockEngineはスパースバックプロパゲーションをサポートし、測定メモリの節約とレイテンシの削減でモデルをスパース更新する。
注目すべきなのは、PockEngineはNVIDIA Jetson AGX OrinのLLaMav2-7Bを550トークン/秒で微調整できることだ。
論文 参考訳(メタデータ) (2023-10-26T19:46:11Z) - UncertaintyPlayground: A Fast and Simplified Python Library for
Uncertainty Estimation [0.0]
UncertaintyPlaygroundはPyTorchとGPyTorch上に構築されたPythonライブラリで、教師付き学習タスクの不確かさを推定する。
このライブラリは、ガウスおよびマルチモーダルな結果分布の高速なトレーニングを提供する。
1つ以上のインスタンスの予測間隔を視覚化することができる。
論文 参考訳(メタデータ) (2023-10-23T18:36:54Z) - pyGSL: A Graph Structure Learning Toolkit [14.000763778781547]
pyGSLは、最先端のグラフ構造学習モデルの効率的な実装を提供するPythonライブラリである。
pyGSLはGPUフレンドリーな方法で書かれており、より大きなネットワークタスクにスケールすることができる。
論文 参考訳(メタデータ) (2022-11-07T14:23:10Z) - Stochastic Gradient Descent without Full Data Shuffle [65.97105896033815]
CorgiPileは階層的なデータシャッフル戦略で、完全なデータシャッフルを回避すると同時に、完全なシャッフルを実行したかのようにSGDの収束率を同等に維持する。
以上の結果から,CorgiPileは深層学習モデルと一般化線形モデルの両方において,全シャッフルベースSGDと同等の収束率を達成できることが示唆された。
論文 参考訳(メタデータ) (2022-06-12T20:04:31Z) - Repro: An Open-Source Library for Improving the Reproducibility and
Usability of Publicly Available Research Code [74.28810048824519]
Reproは、研究コードのユーザビリティ向上を目的とした、オープンソースのライブラリである。
Dockerコンテナ内で研究者がリリースしたソフトウェアを実行するための軽量Python APIを提供する。
論文 参考訳(メタデータ) (2022-04-29T01:54:54Z) - ReservoirComputing.jl: An Efficient and Modular Library for Reservoir
Computing Models [0.17499351967216337]
ReservoirComputing.jlは、貯水池コンピューティングモデルのためのオープンソースのJuliaライブラリである。
コードとドキュメントは、MITライセンス下でGithubにホストされている。
論文 参考訳(メタデータ) (2022-04-08T13:33:09Z) - Scaling Up Models and Data with $\texttt{t5x}$ and $\texttt{seqio}$ [118.04625413322827]
$texttt5x$と$texttseqio$は、言語モデルの構築とトレーニングのためのオープンソースのソフトウェアライブラリである。
これらのライブラリは、複数のテラバイトのトレーニングデータを持つデータセット上で、数十億のパラメータを持つモデルをトレーニングするために使用されています。
論文 参考訳(メタデータ) (2022-03-31T17:12:13Z) - Kernel Operations on the GPU, with Autodiff, without Memory Overflows [5.669790037378094]
KeOpsライブラリは、数学的公式によってエントリが与えられるテンソルに対して、高速でメモリ効率のよいGPUサポートを提供する。
KeOpsは、カーネルおよび幾何学的アプリケーションのためのテンソル中心ライブラリの大きなボトルネックであるメモリ消費を緩和する。
KeOpsは、最適化されたC++/CUDAスキームと、Python(NumpyとPyTorch)、Matlab、Rのバインダーを組み合わせる。
論文 参考訳(メタデータ) (2020-03-27T08:54:10Z) - MOGPTK: The Multi-Output Gaussian Process Toolkit [71.08576457371433]
ガウス過程(GP)を用いたマルチチャネルデータモデリングのためのPythonパッケージMOGPTKを提案する。
このツールキットの目的は、研究者、データサイエンティスト、実践者にもMOGP(multi-output GP)モデルを利用できるようにすることである。
論文 参考訳(メタデータ) (2020-02-09T23:34:49Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。