論文の概要: DPF: Learning Dense Prediction Fields with Weak Supervision
- arxiv url: http://arxiv.org/abs/2303.16890v1
- Date: Wed, 29 Mar 2023 17:58:33 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-30 13:35:27.323146
- Title: DPF: Learning Dense Prediction Fields with Weak Supervision
- Title(参考訳): DPF:弱スーパービジョンによる深度予測分野の学習
- Authors: Xiaoxue Chen, Yuhang Zheng, Yupeng Zheng, Qiang Zhou, Hao Zhao, Guyue
Zhou, Ya-Qin Zhang
- Abstract要約: 我々は,高密度予測場 (DPF) と呼ばれる点座標クエリの予測を行う新しいパラダイムを提案する。
DPFは連続したサブピクセル位置に対して表現的な中間特徴を生成し、任意の解像度の出力を可能にする。
高レベル意味解析と低レベル固有画像分解の2つのタスクを用いてDPFの有効性を示す。
- 参考スコア(独自算出の注目度): 4.843068133224435
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Nowadays, many visual scene understanding problems are addressed by dense
prediction networks. But pixel-wise dense annotations are very expensive (e.g.,
for scene parsing) or impossible (e.g., for intrinsic image decomposition),
motivating us to leverage cheap point-level weak supervision. However, existing
pointly-supervised methods still use the same architecture designed for full
supervision. In stark contrast to them, we propose a new paradigm that makes
predictions for point coordinate queries, as inspired by the recent success of
implicit representations, like distance or radiance fields. As such, the method
is named as dense prediction fields (DPFs). DPFs generate expressive
intermediate features for continuous sub-pixel locations, thus allowing outputs
of an arbitrary resolution. DPFs are naturally compatible with point-level
supervision. We showcase the effectiveness of DPFs using two substantially
different tasks: high-level semantic parsing and low-level intrinsic image
decomposition. In these two cases, supervision comes in the form of
single-point semantic category and two-point relative reflectance,
respectively. As benchmarked by three large-scale public datasets
PASCALContext, ADE20K and IIW, DPFs set new state-of-the-art performance on all
of them with significant margins.
Code can be accessed at https://github.com/cxx226/DPF.
- Abstract(参考訳): 現在、多くの視覚シーン理解問題は、密集した予測ネットワークによって解決されている。
しかし、ピクセル単位の高密度アノテーションは非常に高価(シーン解析など)で、あるいは不可能(本質的な画像分解など)であり、安価な点レベルの弱い監視を活用する動機となっている。
しかし、既存のポイント管理手法は、完全な監視のために設計された同じアーキテクチャを使っている。
それらとは対照的に,距離や放射場といった近年の暗黙の表現の成功に触発されて,点座標クエリの予測を行う新しいパラダイムを提案する。
したがって、この方法は密度予測場(dpfs)と呼ばれる。
DPFは連続したサブピクセル位置に対して表現的な中間特徴を生成し、任意の解像度の出力を可能にする。
DPFはポイントレベルの監視と自然に互換性がある。
高レベル意味解析と低レベル固有画像分解の2つのタスクを用いてDPFの有効性を示す。
これら2つのケースでは、監督は、それぞれ1点意味圏と2点相対反射の形で行われる。
PASCALContext、ADE20K、IIWの3つの大規模パブリックデータセットによってベンチマークされたDPFは、これらすべてに対して、最先端のパフォーマンスを大きなマージンで設定した。
コードはhttps://github.com/cxx226/DPFでアクセスできる。
関連論文リスト
- NeRF-Det++: Incorporating Semantic Cues and Perspective-aware Depth
Supervision for Indoor Multi-View 3D Detection [72.0098999512727]
NeRF-Detは、NeRFを用いた屋内マルチビュー3次元検出において、表現学習の強化による優れた性能を実現している。
セマンティックエンハンスメント(セマンティックエンハンスメント)、パースペクティブ・アウェア・サンプリング(パースペクティブ・アウェア・サンプリング)、および順序深度監視を含む3つのソリューションを提案する。
結果として得られたアルゴリズムであるNeRF-Det++は、ScanNetV2とAR KITScenesデータセットで魅力的なパフォーマンスを示している。
論文 参考訳(メタデータ) (2024-02-22T11:48:06Z) - Transferring to Real-World Layouts: A Depth-aware Framework for Scene Adaptation [34.786268652516355]
教師なしドメイン適応(UDA)によるシーンセグメンテーションは、ソース合成データから取得した知識を現実のターゲットデータに転送することを可能にする。
深度推定を明示的に活用してカテゴリを混合し,2つの補完的タスク,すなわちセグメンテーションと深度学習を促進するための奥行き認識フレームワークを提案する。
特に、このフレームワークには、DCF(Depth-guided Contextual Filter)フォーンデータ拡張と、コンテキスト学習のためのクロスタスクエンコーダが含まれている。
論文 参考訳(メタデータ) (2023-11-21T15:39:21Z) - PointDC:Unsupervised Semantic Segmentation of 3D Point Clouds via
Cross-modal Distillation and Super-Voxel Clustering [32.18716273358168]
我々は、ポイントクラウドの完全な教師なしセマンティックセマンティックセグメンテーションの最初の試みを行う。
本稿では,上記の問題に対処する2つのステップからなる新しいフレームワークであるPointDCを提案する。
PointDCは、従来の最先端の教師なし手法よりも大幅に改善されている。
論文 参考訳(メタデータ) (2023-04-18T12:58:21Z) - DDP: Diffusion Model for Dense Visual Prediction [71.55770562024782]
本研究では,条件付き拡散パイプラインに基づく高密度視覚予測のための,シンプルで効率的かつ強力なフレームワークを提案する。
DDPと呼ばれるこの手法は、デノナイジング拡散過程を現代の知覚パイプラインに効率的に拡張する。
DDPは、従来の単段階識別法とは対照的に、動的推論や不確実性認識などの魅力的な特性を示す。
論文 参考訳(メタデータ) (2023-03-30T17:26:50Z) - Flattening-Net: Deep Regular 2D Representation for 3D Point Cloud
Analysis [66.49788145564004]
我々は、任意の幾何学と位相の不規則な3次元点雲を表現するために、Flattning-Netと呼ばれる教師なしのディープニューラルネットワークを提案する。
我々の手法は、現在の最先端の競合相手に対して好意的に機能する。
論文 参考訳(メタデータ) (2022-12-17T15:05:25Z) - Layout-to-Image Translation with Double Pooling Generative Adversarial
Networks [76.83075646527521]
入力レイアウトからフォトリアリスティックでセマンティックに一貫性のある結果を生成するための新しいDouble Pooing GAN(DPGAN)を提案する。
また,角形プールモジュール (SPM) と矩形プールモジュール (RPM) からなる新しい二重プールモジュール (DPM) を提案する。
論文 参考訳(メタデータ) (2021-08-29T19:55:14Z) - Revisiting Pixel-Wise Supervision for Face Anti-Spoofing [75.89648108213773]
対面防止(FAS)は、提示攻撃(PA)から顔認識システムを保護する上で重要な役割を担っている
伝統的に、二分損失によって教師される深いモデルは、本質的および差別的なスプーフィングパターンを記述するのに弱い。
近年、よりきめ細かいピクセル/パッチレベルのキューを提供することを目的として、FASタスクに対してピクセル単位での監視が提案されている。
論文 参考訳(メタデータ) (2020-11-24T11:25:58Z) - Deep Semantic Matching with Foreground Detection and Cycle-Consistency [103.22976097225457]
深層ネットワークに基づく弱い教師付きセマンティックマッチングに対処する。
本研究では,背景乱れの影響を抑えるために,前景領域を明示的に推定する。
複数の画像にまたがって予測変換を強制し、幾何的に可視かつ一貫したサイクル一貫性の損失を発生させる。
論文 参考訳(メタデータ) (2020-03-31T22:38:09Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。