論文の概要: Multi-view Disparity Estimation Using a Novel Gradient Consistency Model
- arxiv url: http://arxiv.org/abs/2405.17029v1
- Date: Mon, 27 May 2024 10:30:59 GMT
- ステータス: 処理完了
- システム内更新日: 2024-05-28 16:01:56.406893
- Title: Multi-view Disparity Estimation Using a Novel Gradient Consistency Model
- Title(参考訳): 新しいグラディエント一貫性モデルを用いた多視点差分推定
- Authors: James L. Gray, Aous T. Naman, David S. Taubman,
- Abstract要約: 本稿では,線形化の有効性を評価するために,勾配一貫性情報を用いることを提案する。
この情報は、解析的にインスパイアされたグラディエント一貫性モデルの一部として、データ項に適用される重みを決定するために使用される。
グラディエント一貫性モデルが標準粗大なスキームよりも優れていることを示す。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Variational approaches to disparity estimation typically use a linearised brightness constancy constraint, which only applies in smooth regions and over small distances. Accordingly, current variational approaches rely on a schedule to progressively include image data. This paper proposes the use of Gradient Consistency information to assess the validity of the linearisation; this information is used to determine the weights applied to the data term as part of an analytically inspired Gradient Consistency Model. The Gradient Consistency Model penalises the data term for view pairs that have a mismatch between the spatial gradients in the source view and the spatial gradients in the target view. Instead of relying on a tuned or learned schedule, the Gradient Consistency Model is self-scheduling, since the weights evolve as the algorithm progresses. We show that the Gradient Consistency Model outperforms standard coarse-to-fine schemes and the recently proposed progressive inclusion of views approach in both rate of convergence and accuracy.
- Abstract(参考訳): 差分推定に対する変分的アプローチは、典型的には、滑らかな領域や小さな距離でのみ適用される線形化輝度定数制約を用いる。
したがって、現在の変動的アプローチは、徐々に画像データを含めるスケジュールに依存している。
本稿では、線形化の有効性を評価するために、勾配一貫性情報を用いて、解析的に着想を得た勾配一貫性モデルの一部として、データ項に適用される重みを決定する。
勾配一貫性モデル(Gradient Consistency Model)は、ソースビューにおける空間勾配とターゲットビューにおける空間勾配とのミスマッチを有するビューペアのデータ項を解析する。
チューニングされたスケジュールや学習されたスケジュールに頼る代わりに、グラディエント一貫性モデルは、アルゴリズムが進むにつれて重みが進化するので、自己スケジューリングである。
グラディエント一貫性モデルは、標準粗大なスキームよりも優れており、最近提案されたビューアプローチを収束率と精度の両方で漸進的に取り入れていることを示す。
関連論文リスト
- Diagonalisation SGD: Fast & Convergent SGD for Non-Differentiable Models
via Reparameterisation and Smoothing [1.6114012813668932]
微分不可能な関数を断片的に定義するための単純なフレームワークを導入し,スムース化を得るための体系的なアプローチを提案する。
我々の主な貢献は SGD の新たな変種 Diagonalisation Gradient Descent であり、滑らかな近似の精度を徐々に向上させる。
我々のアプローチは単純で高速で安定であり、作業正規化分散の桁数削減を実現している。
論文 参考訳(メタデータ) (2024-02-19T00:43:22Z) - Score-based Continuous-time Discrete Diffusion Models [102.65769839899315]
連続時間マルコフ連鎖を介して逆過程が認知されるマルコフジャンププロセスを導入することにより、拡散モデルを離散変数に拡張する。
条件境界分布の単純なマッチングにより、偏りのない推定器が得られることを示す。
提案手法の有効性を,合成および実世界の音楽と画像のベンチマークで示す。
論文 参考訳(メタデータ) (2022-11-30T05:33:29Z) - Deep Manifold Learning with Graph Mining [80.84145791017968]
グラフマイニングのための非段階的決定層を持つ新しいグラフ深層モデルを提案する。
提案モデルでは,現行モデルと比較して最先端性能を実現している。
論文 参考訳(メタデータ) (2022-07-18T04:34:08Z) - Geometrically Guided Integrated Gradients [0.3867363075280543]
我々は「幾何学的誘導積分勾配」と呼ばれる解釈可能性法を導入する。
提案手法は,入力の複数のスケールバージョンからモデルの動的挙動を探索し,各入力に対する最適な属性をキャプチャする。
また,従来のモデルランダム化試験を補完する「モデル摂動」正当性チェックを提案する。
論文 参考訳(メタデータ) (2022-06-13T05:05:43Z) - A Model for Multi-View Residual Covariances based on Perspective
Deformation [88.21738020902411]
マルチビューSfM, オードメトリ, SLAMセットアップにおける視覚的残差の共分散モデルの導出を行う。
我々は、合成データと実データを用いてモデルを検証し、それを光度および特徴量に基づくバンドル調整に統合する。
論文 参考訳(メタデータ) (2022-02-01T21:21:56Z) - GradTail: Learning Long-Tailed Data Using Gradient-based Sample
Weighting [15.418627530276598]
そこで本研究では, モデルトレーニングの初期段階において, 勾配点積の合意に基づくアプローチにより, 長期化データを早期に分離し, 標本重み付けを動的に行うことにより, 性能を向上できることを示す。
このような重み付けによって分類モデルと回帰モデルの両方のモデルの改善がもたらされるが、後者は長い尾の文献では比較的解明されていない。
論文 参考訳(メタデータ) (2022-01-16T00:37:39Z) - Revisiting Consistency Regularization for Semi-Supervised Learning [80.28461584135967]
そこで我々は,FeatDistLossというシンプルな手法により,一貫性の規則化を改良したフレームワークを提案する。
実験結果から,本モデルは様々なデータセットや設定のための新しい技術状態を定義する。
論文 参考訳(メタデータ) (2021-12-10T20:46:13Z) - SGD Implicitly Regularizes Generalization Error [0.0]
勾配降下は、近傍の更新をデコレーションすることで一般化誤差を正規化する作用を示す。
これらの計算のさらなる改善について論じ、最適化の可能性についてコメントする。
論文 参考訳(メタデータ) (2021-04-10T23:10:14Z) - GELATO: Geometrically Enriched Latent Model for Offline Reinforcement
Learning [54.291331971813364]
オフライン強化学習アプローチは、近近法と不確実性認識法に分けられる。
本研究では,この2つを潜在変動モデルに組み合わせることのメリットを実証する。
提案したメトリクスは、分布サンプルのアウトの品質と、データ内のサンプルの不一致の両方を測定します。
論文 参考訳(メタデータ) (2021-02-22T19:42:40Z) - Joint Intensity-Gradient Guided Generative Modeling for Colorization [16.89777347891486]
本稿では,自動着色問題を解決するための反復生成モデルを提案する。
データ忠実度項における共同強度勾配制約は、生成モデル内の自由度を制限するために提案される。
実験により、定量的比較やユーザ研究において、システムは最先端の手法よりも優れていた。
論文 参考訳(メタデータ) (2020-12-28T07:52:55Z) - Cogradient Descent for Bilinear Optimization [124.45816011848096]
双線形問題に対処するために、CoGDアルゴリズム(Cogradient Descent Algorithm)を導入する。
一方の変数は、他方の変数との結合関係を考慮し、同期勾配降下をもたらす。
本アルゴリズムは,空間的制約下での1変数の問題を解くために応用される。
論文 参考訳(メタデータ) (2020-06-16T13:41:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。