論文の概要: Sparsity Agnostic Depth Completion
- arxiv url: http://arxiv.org/abs/2212.00790v1
- Date: Thu, 1 Dec 2022 18:59:46 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-02 16:30:27.008756
- Title: Sparsity Agnostic Depth Completion
- Title(参考訳): Sparsity Agnostic Depth Completion
- Authors: Andrea Conti, Matteo Poggi and Stefano Mattoccia
- Abstract要約: 最先端のアプローチは、入力点の特定の密度と分布を処理する場合にのみ正確な結果が得られる。
私たちのソリューションは、不均一な分布に対して堅牢で、トレーニング中に見たことのない極めて低い密度です。
- 参考スコア(独自算出の注目度): 39.116228971420874
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We present a novel depth completion approach agnostic to the sparsity of
depth points, that is very likely to vary in many practical applications.
State-of-the-art approaches yield accurate results only when processing a
specific density and distribution of input points, i.e. the one observed during
training, narrowing their deployment in real use cases. On the contrary, our
solution is robust to uneven distributions and extremely low densities never
witnessed during training. Experimental results on standard indoor and outdoor
benchmarks highlight the robustness of our framework, achieving accuracy
comparable to state-of-the-art methods when tested with density and
distribution equal to the training one while being much more accurate in the
other cases. Our pretrained models and further material are available in our
project page.
- Abstract(参考訳): そこで本研究では,多くの応用において,深度点の空間性に依存しない新しい深度完備化手法を提案する。
最先端のアプローチは、特定の密度と入力点の分布を処理する場合にのみ正確な結果が得られる。
逆に、我々のソリューションは不均一な分布に対して堅牢であり、トレーニング中に見つからなかった極めて低密度である。
標準室内および屋外ベンチマークにおける実験結果では,このフレームワークのロバスト性が強調され,密度と分布をトレーニングと同等の精度でテストした場合の最先端手法に匹敵する精度が得られた。
トレーニング済みのモデルとさらなる資料は、プロジェクトのページで利用可能です。
関連論文リスト
- Bridging Precision and Confidence: A Train-Time Loss for Calibrating
Object Detection [58.789823426981044]
本稿では,境界ボックスのクラス信頼度を予測精度に合わせることを目的とした,新たな補助損失定式化を提案する。
その結果,列車の走行時間損失はキャリブレーション基準を超過し,キャリブレーション誤差を低減させることがわかった。
論文 参考訳(メタデータ) (2023-03-25T08:56:21Z) - Decorrelative Network Architecture for Robust Electrocardiogram
Classification [4.808817930937323]
すべてのシナリオで正確であるネットワークをトレーニングすることはできない。
深層学習法は不確実性を推定するためにモデルパラメータ空間をサンプリングする。
これらのパラメータは、しばしば、敵の攻撃によって悪用される、同じ脆弱性にさらされる。
本稿では,特徴デコレーションとフーリエ分割に基づく新たなアンサンブル手法を提案する。
論文 参考訳(メタデータ) (2022-07-19T02:36:36Z) - Robust Calibration with Multi-domain Temperature Scaling [86.07299013396059]
我々は,複数の領域からのデータを活用することで,分散シフトを処理するシステムキャリブレーションモデルを開発した。
提案手法は,分布シフト時のキャリブレーションを改善するために,領域内のロバスト性を利用する。
論文 参考訳(メタデータ) (2022-06-06T17:32:12Z) - Bayesian Framework for Gradient Leakage [8.583436410810203]
フェデレーション学習は、トレーニングデータを共有せずに機械学習モデルをトレーニングするための確立された方法である。
近年の研究では、共有勾配が機密情報を漏洩する可能性があるため、データのプライバシを保証できないことが示されている。
本稿では,最適化問題として表現されたベイズ最適逆解析を初めて行う理論的枠組みを提案する。
論文 参考訳(メタデータ) (2021-11-08T18:35:40Z) - Squeezing Backbone Feature Distributions to the Max for Efficient
Few-Shot Learning [3.1153758106426603]
ラベル付きサンプルの少ない使用によって生じる不確実性のため、ほとんどショット分類が難しい問題である。
本稿では,特徴ベクトルをガウス分布に近づけるように処理するトランスファーベース手法を提案する。
また,学習中に未学習のサンプルが利用可能となる多段階的数ショット学習では,達成された性能をさらに向上させる最適なトランスポートインスピレーションアルゴリズムも導入する。
論文 参考訳(メタデータ) (2021-10-18T16:29:17Z) - On the Practicality of Deterministic Epistemic Uncertainty [106.06571981780591]
決定論的不確実性法(DUM)は,分布外データの検出において高い性能を達成する。
DUMが十分に校正されており、現実のアプリケーションにシームレスにスケールできるかどうかは不明だ。
論文 参考訳(メタデータ) (2021-07-01T17:59:07Z) - Deep Stable Learning for Out-Of-Distribution Generalization [27.437046504902938]
深層ニューラルネットワークに基づくアプローチは、同様の分布を持つデータとトレーニングデータをテストする際に顕著なパフォーマンスを達成した。
トレーニングとテストデータ間の分散シフトの影響を排除することは、パフォーマンス向上の深層モデルの構築に不可欠です。
トレーニングサンプルの学習重みによる特徴間の依存関係を除去し,この問題に対処することを提案する。
論文 参考訳(メタデータ) (2021-04-16T03:54:21Z) - Learning Accurate Dense Correspondences and When to Trust Them [161.76275845530964]
2つの画像に関連する密度の高い流れ場と、堅牢な画素方向の信頼度マップの推定を目指しています。
フロー予測とその不確実性を共同で学習するフレキシブルな確率的アプローチを開発する。
本手法は,幾何学的マッチングと光フローデータセットに挑戦する最新の結果を得る。
論文 参考訳(メタデータ) (2021-01-05T18:54:11Z) - Multi-Loss Sub-Ensembles for Accurate Classification with Uncertainty
Estimation [1.2891210250935146]
本稿では,ディープニューラルネットワーク(DNN)の高精度な不確実性推定手法を提案する。
我々は,Deep-Sub-Ensembles法によって提案される利点を利用して,推定時間を比較的低く保つ。
その結果,いくつかの不確実性対策における分類課題と競争結果の精度が向上した。
論文 参考訳(メタデータ) (2020-10-05T10:59:11Z) - A Closer Look at Accuracy vs. Robustness [94.2226357646813]
堅牢なネットワークをトレーニングする現在の方法は、テスト精度の低下につながる。
実際の画像データセットが実際に分離されていることを示す。
我々は、実際に堅牢性と精度を達成するには、局所的なリプシッツを強制する手法を使う必要があると結論付けている。
論文 参考訳(メタデータ) (2020-03-05T07:09:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。