論文の概要: Reliable Multi-view 3D Reconstruction for `Just-in-time' Edge Environments
- arxiv url: http://arxiv.org/abs/2508.15158v1
- Date: Thu, 21 Aug 2025 01:42:22 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-22 16:26:46.140876
- Title: Reliable Multi-view 3D Reconstruction for `Just-in-time' Edge Environments
- Title(参考訳): ジャスト・イン・タイム」エッジ環境に対する信頼性のあるマルチビュー3次元再構成
- Authors: Md. Nurul Absur, Abhinav Kumar, Swastik Brahma, Saptarshi Debroy,
- Abstract要約: 本稿では,システム破壊の可能性に対する信頼性の高いマルチビュー3D再構成のための,新たなポートフォリオ理論に基づくエッジリソース管理戦略を提案する。
提案手法は, カメラが相関破壊を起こしやすい場合でも, 復元品質を保証できる。
- 参考スコア(独自算出の注目度): 3.291976306424579
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Multi-view 3D reconstruction applications are revolutionizing critical use cases that require rapid situational-awareness, such as emergency response, tactical scenarios, and public safety. In many cases, their near-real-time latency requirements and ad-hoc needs for compute resources necessitate adoption of `Just-in-time' edge environments where the system is set up on the fly to support the applications during the mission lifetime. However, reliability issues can arise from the inherent dynamism and operational adversities of such edge environments, resulting in spatiotemporally correlated disruptions that impact the camera operations, which can lead to sustained degradation of reconstruction quality. In this paper, we propose a novel portfolio theory inspired edge resource management strategy for reliable multi-view 3D reconstruction against possible system disruptions. Our proposed methodology can guarantee reconstruction quality satisfaction even when the cameras are prone to spatiotemporally correlated disruptions. The portfolio theoretic optimization problem is solved using a genetic algorithm that converges quickly for realistic system settings. Using publicly available and customized 3D datasets, we demonstrate the proposed camera selection strategy's benefits in guaranteeing reliable 3D reconstruction against traditional baseline strategies, under spatiotemporal disruptions.
- Abstract(参考訳): 多視点3D再構築アプリケーションは、緊急対応、戦術シナリオ、公衆安全など、迅速な状況認識を必要とする重要なユースケースに革命をもたらしている。
多くの場合、そのほぼリアルタイムのレイテンシ要件と計算リソースに対するアドホックな要求は、ミッション寿命中にアプリケーションをサポートするためにシステムがオンザフライで設定される'Just-in-time'エッジ環境の採用を必要とする。
しかし、信頼性の問題は、このようなエッジ環境の固有のダイナミズムと運用上の逆さから生じ、時空間的に相関してカメラ操作に影響を及ぼし、再建品質の持続的な低下につながる可能性がある。
本稿では,システム破壊の可能性に対する信頼性の高いマルチビュー3D再構成のための,新たなポートフォリオ理論に基づくエッジリソース管理戦略を提案する。
提案手法は, 時空間的に相関したディスラプションが発生しやすい場合でも, 再現品質の満足度を保証できる。
ポートフォリオ理論最適化問題は、現実的なシステム設定のために迅速に収束する遺伝的アルゴリズムを用いて解決される。
公開可能な3Dデータセットとカスタマイズされた3Dデータセットを用いて、時空間破壊の下で従来のベースライン戦略に対して信頼性の高い3D再構成を保証することによる、提案されたカメラ選択戦略の利点を実証する。
関連論文リスト
- RobustGS: Unified Boosting of Feedforward 3D Gaussian Splatting under Low-Quality Conditions [67.48495052903534]
本稿では,汎用的で効率的なマルチビュー機能拡張モジュールRobustGSを提案する。
各種の有害撮像条件下でのフィードフォワード3DGS法のロバスト性を大幅に向上させる。
RobustGSモジュールはプラグイン・アンド・プレイ方式で既存の事前訓練パイプラインにシームレスに統合できる。
論文 参考訳(メタデータ) (2025-08-05T04:50:29Z) - VEIGAR: View-consistent Explicit Inpainting and Geometry Alignment for 3D object Removal [2.8954284913103367]
新しいビュー合成(NVS)と3D生成は編集タスクを大幅に改善した。
生成プロセス全体を通して横断的な一貫性を維持するために、メソッドは通常、デュアルストラテジーフレームワークを使用してこの問題に対処する。
VEIGARは,初期再構成フェーズに依存することなく,既存の手法より優れた計算効率の高いフレームワークである。
論文 参考訳(メタデータ) (2025-06-13T11:31:44Z) - A Survey of 3D Reconstruction with Event Cameras [16.103940503726022]
イベントカメラはスパースで時間的に密度の高いデータストリームを生成し、堅牢で正確な3D再構成を可能にする。
これらの能力は、自律運転、ロボティクス、空中ナビゲーション、没入型バーチャルリアリティーなど、さまざまな分野にまたがるトランスフォーメーションアプリケーションに対して、大きな保証を提供する。
本調査は, イベント駆動型3D再構築における最先端技術に向けた, 明確かつモチベーションの高いロードマップを提供する。
論文 参考訳(メタデータ) (2025-05-13T11:04:04Z) - Multi-robot autonomous 3D reconstruction using Gaussian splatting with Semantic guidance [18.631273098468384]
暗黙の神経表現と3次元ガウススプラッティング(3DGS)はシーン再構成に大きな可能性を示している。
近年,タスク割り当て手法による自律的再構築への応用が拡大している。
本稿では,最初の3DGSに基づく集中型マルチロボット自律型3D再構築フレームワークを提案する。
論文 参考訳(メタデータ) (2024-12-03T08:27:17Z) - Poster: Reliable 3D Reconstruction for Ad-hoc Edge Implementations [1.1688548469063846]
マルチビュー3D再構成のようなリアルタイム複雑なビデオ処理アプリケーションをサポートするアドホックなデプロイメントは、エッジシステムの破壊に悩まされることが多い。
本稿では,ポートフォリオ理論にインスパイアされた資源管理戦略を提案する。
論文 参考訳(メタデータ) (2024-11-16T05:17:27Z) - Cross-Consistent Deep Unfolding Network for Adaptive All-In-One Video
Restoration [78.14941737723501]
オールインワンVRのためのクロスコンセントディープ・アンフォールディング・ネットワーク(CDUN)を提案する。
2つのカスケード手順を編成することにより、CDUNは様々な劣化に対する適応的な処理を達成する。
さらに、より隣接するフレームからの情報を活用するために、ウィンドウベースのフレーム間融合戦略を導入する。
論文 参考訳(メタデータ) (2023-09-04T14:18:00Z) - End-to-End Latency Optimization of Multi-view 3D Reconstruction for
Disaster Response [3.471012855429593]
マルチビューステレオ(MVS)ベースの3D再構成アプリケーションは、特にそのような計算に制約のある移動体エッジデバイス上で実行するのに非常に時間がかかる。
本稿では,エンド・ツー・エンドのレイテンシとリコンストラクション品質を最適にバランスさせることを目的として,レイテンシ最適化型MVSアルゴリズムパイプラインの設計を目的とする。
論文 参考訳(メタデータ) (2023-04-04T03:04:44Z) - NeurAR: Neural Uncertainty for Autonomous 3D Reconstruction [64.36535692191343]
暗黙の神経表現はオフラインの3D再構成において魅力的な結果を示しており、オンラインSLAMシステムの可能性も最近示している。
本論文は,1)新しい表現に基づく視点計画の質を評価するための基準を求めること,2)手作りではなく,異なる場面に一般化可能なデータから基準を学習すること,の2つの課題に対処する。
本手法は, TSDFを用いた変形モデルやビュープランニングなしでの再構成モデルと比較した場合, レンダリングされた画像品質と再構成された3次元モデルの幾何学的品質について, 様々な指標について有意な改善を示す。
論文 参考訳(メタデータ) (2022-07-22T10:05:36Z) - Unsupervised Domain Adaptation with Temporal-Consistent Self-Training
for 3D Hand-Object Joint Reconstruction [131.34795312667026]
サイクル生成逆数ネットワーク(CycleGAN)内の3次元幾何学的制約を利用してこの問題に対処する効果的なアプローチを提案する。
既存のほとんどの研究とは対照的に、ドメイン適応モデルを自己管理的に微調整するために、短期的および長期的時間的整合性を強制することを提案する。
本研究では,3つのベンチマークを用いて,最先端の3Dハンドオブジェ共同再建手法を上回っていることを実証する。
論文 参考訳(メタデータ) (2020-12-21T11:27:56Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。