論文の概要: Segmenting objects with Bayesian fusion of active contour models and convnet priors
- arxiv url: http://arxiv.org/abs/2410.07421v1
- Date: Wed, 9 Oct 2024 20:36:43 GMT
- ステータス: 処理完了
- システム内更新日: 2024-10-31 20:37:14.209984
- Title: Segmenting objects with Bayesian fusion of active contour models and convnet priors
- Title(参考訳): アクティブな輪郭モデルと共振器事前のベイズ融合を伴うセグメンテーション対象
- Authors: Przemyslaw Polewski, Jacquelyn Shelton, Wei Yao, Marco Heurich,
- Abstract要約: 本稿では,自然資源モニタリング(NRM)画像を対象とした新しい事例分割手法を提案する。
我々は、個々の物体の輪郭を学習する際に、形状、位置、位置の先行を組み込むベイズ最大値後部推論として問題を定式化する。
実験では、個々の枯木樹冠と正確な輪郭を分割する、挑戦的で現実的な問題に取り組む。
- 参考スコア(独自算出の注目度): 0.729597981661727
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Instance segmentation is a core computer vision task with great practical significance. Recent advances, driven by large-scale benchmark datasets, have yielded good general-purpose Convolutional Neural Network (CNN)-based methods. Natural Resource Monitoring (NRM) utilizes remote sensing imagery with generally known scale and containing multiple overlapping instances of the same class, wherein the object contours are jagged and highly irregular. This is in stark contrast with the regular man-made objects found in classic benchmark datasets. We address this problem and propose a novel instance segmentation method geared towards NRM imagery. We formulate the problem as Bayesian maximum a posteriori inference which, in learning the individual object contours, incorporates shape, location, and position priors from state-of-the-art CNN architectures, driving a simultaneous level-set evolution of multiple object contours. We employ loose coupling between the CNNs that supply the priors and the active contour process, allowing a drop-in replacement of new network architectures. Moreover, we introduce a novel prior for contour shape, namely, a class of Deep Shape Models based on architectures from Generative Adversarial Networks (GANs). These Deep Shape Models are in essence a non-linear generalization of the classic Eigenshape formulation. In experiments, we tackle the challenging, real-world problem of segmenting individual dead tree crowns and delineating precise contours. We compare our method to two leading general-purpose instance segmentation methods - Mask R-CNN and K-net - on color infrared aerial imagery. Results show our approach to significantly outperform both methods in terms of reconstruction quality of tree crown contours. Furthermore, use of the GAN-based deep shape model prior yields significant improvement of all results over the vanilla Eigenshape prior.
- Abstract(参考訳): インスタンスセグメンテーションは、非常に実用的なコンピュータビジョンタスクである。
大規模なベンチマークデータセットによって駆動される最近の進歩は、優れた汎用畳み込みニューラルネットワーク(CNN)ベースの手法を生み出している。
NRM(Natural Resource Monitoring)は、一般的に知られている規模のリモートセンシング画像を使用し、同じクラスの複数の重複するインスタンスを含む。
これは、古典的なベンチマークデータセットに見られる通常の人造オブジェクトとは対照的である。
この問題に対処し,NEM画像を対象とした新しいインスタンス分割手法を提案する。
我々は,個々の物体の輪郭を学習する際に,その形状,位置,位置を最先端CNNアーキテクチャから組み込んで,複数の物体の輪郭を同時にレベルセットに進化させるような,ベイズ的最大値推論として問題を定式化する。
プリエントを供給しているCNNとアクティブな輪郭プロセスとの間に疎結合を採用し、新しいネットワークアーキテクチャをドロップインで置き換えることを可能にする。
さらに,輪郭形状,すなわちGAN(Generative Adversarial Networks)のアーキテクチャに基づく深部形状モデル(Deep Shape Models)のクラスについて紹介する。
これらの深部形状モデルは本質的に古典的固有形定式化の非線形一般化である。
実験では、個々の枯木樹冠を分割し、正確な輪郭を列挙する、挑戦的で現実的な問題に取り組む。
カラー赤外空中画像における2つの主要な汎用インスタンスセグメンテーション手法であるMask R-CNNとK-netとの比較を行った。
その結果, 樹冠輪郭の復元品質において, 両手法を著しく向上させる手法が得られた。
さらに, GANをベースとした深部形状モデルを用いることで, バニラEigenshapeよりも多くの結果が得られた。
関連論文リスト
- SpaceMesh: A Continuous Representation for Learning Manifold Surface Meshes [61.110517195874074]
本稿では,ニューラルネットワークの出力として,複雑な接続性を持つ多様体多角形メッシュを直接生成する手法を提案する。
私たちの重要なイノベーションは、各メッシュで連続的な遅延接続空間を定義することです。
アプリケーションでは、このアプローチは生成モデルから高品質な出力を得るだけでなく、メッシュ修復のような挑戦的な幾何処理タスクを直接学習することを可能にする。
論文 参考訳(メタデータ) (2024-09-30T17:59:03Z) - Boosting Cross-Domain Point Classification via Distilling Relational Priors from 2D Transformers [59.0181939916084]
従来の3Dネットワークは主に局所幾何学的詳細に焦点を当て、局所幾何学間の位相構造を無視する。
そこで本稿では,大規模画像上においてよく訓練されたトランスフォーマーから前駆体を抽出する,新しい先駆体蒸留法を提案する。
PointDA-10とSim-to-Realデータセットの実験は、提案手法が点クラウド分類におけるUDAの最先端性能を一貫して達成していることを検証する。
論文 参考訳(メタデータ) (2024-07-26T06:29:09Z) - Distance Weighted Trans Network for Image Completion [52.318730994423106]
本稿では,DWT(Distance-based Weighted Transformer)を利用した画像コンポーネント間の関係をよりよく理解するためのアーキテクチャを提案する。
CNNは、粗い事前の局所的なテクスチャ情報を強化するために使用される。
DWTブロックは、特定の粗いテクスチャやコヒーレントな視覚構造を復元するために使用される。
論文 参考訳(メタデータ) (2023-10-11T12:46:11Z) - DeepDC: Deep Distance Correlation as a Perceptual Image Quality
Evaluator [53.57431705309919]
ImageNet Pre-trained Deep Neural Network (DNN)は、効果的な画像品質評価(IQA)モデルを構築するための顕著な転送性を示す。
我々は,事前学習DNN機能のみに基づく新しいフル参照IQA(FR-IQA)モデルを開発した。
5つの標準IQAデータセット上で,提案した品質モデルの優位性を示すため,包括的実験を行った。
論文 参考訳(メタデータ) (2022-11-09T14:57:27Z) - Improving Shape Awareness and Interpretability in Deep Networks Using
Geometric Moments [0.0]
画像分類のためのディープネットワークは、しばしばオブジェクトの形状よりもテクスチャ情報に依存している。
本稿では,幾何学的モーメントにインスパイアされたディープラーニングモデルを提案する。
標準画像分類データセットにおける本手法の有効性を実証する。
論文 参考訳(メタデータ) (2022-05-24T02:08:05Z) - Context Decoupling Augmentation for Weakly Supervised Semantic
Segmentation [53.49821324597837]
微調整されたセマンティックセグメンテーションは、近年深く研究されている困難な問題です。
本稿では、オブジェクトが現れる固有のコンテキストを変更する Context Decoupling Augmentation (CDA) メソッドを紹介します。
提案手法の有効性を検証するため, PASCAL VOC 2012データセットにいくつかの代替ネットワークアーキテクチャを用いた広範な実験を行い, CDAが様々なWSSS手法を新たな最先端技術に拡張できることを実証した。
論文 参考訳(メタデータ) (2021-03-02T15:05:09Z) - Neural Subdivision [58.97214948753937]
本稿では,データ駆動型粗粒度モデリングの新しいフレームワークであるNeural Subdivisionを紹介する。
すべてのローカルメッシュパッチで同じネットワーク重みのセットを最適化するため、特定の入力メッシュや固定属、カテゴリに制約されないアーキテクチャを提供します。
単一の高分解能メッシュでトレーニングしても,本手法は新規な形状に対して合理的な区分を生成する。
論文 参考訳(メタデータ) (2020-05-04T20:03:21Z) - Deep Manifold Prior [37.725563645899584]
本稿では,3次元形状の表面などの多様体構造データに先行する手法を提案する。
この方法で生成された曲面は滑らかであり、ガウス過程を特徴とする制限的な挙動を示し、完全連結および畳み込みネットワークに対して数学的にそのような特性を導出する。
論文 参考訳(メタデータ) (2020-04-08T20:47:56Z) - Segmentation and Recovery of Superquadric Models using Convolutional
Neural Networks [2.454342521577328]
畳み込みニューラルネットワーク(CNN)を中心に構築された(二段階)アプローチを提案する。
第1段階では,提案手法はMask RCNNモデルを用いて,深度シーンにおける超クワッドリックな構造を同定する。
我々は、少数の解釈可能なパラメータを持つ複雑な構造を記述することができる。
論文 参考訳(メタデータ) (2020-01-28T18:17:48Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。