論文の概要: Walk the Lines: Object Contour Tracing CNN for Contour Completion of
Ships
- arxiv url: http://arxiv.org/abs/2004.06587v1
- Date: Tue, 14 Apr 2020 15:19:04 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-13 09:05:08.960050
- Title: Walk the Lines: Object Contour Tracing CNN for Contour Completion of
Ships
- Title(参考訳): 船の輪郭完成のためのcnn「walk the lines: object contour tracing cnn」
- Authors: Andr\'e Peter Kelm and Udo Z\"olzer
- Abstract要約: 我々は,最新の物体の輪郭検出結果を改善するために,新しい輪郭追跡アルゴリズムを開発した。
目標は、完全に閉じた幅1ピクセルの細かな物体の輪郭を実現することである。
We present the Walk the Lines (WtL) algorithm, a standard regression CNN to follow object contours。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We develop a new contour tracing algorithm to enhance the results of the
latest object contour detectors. The goal is to achieve a perfectly closed, 1
pixel wide and detailed object contour, since this type of contour could be
analyzed using methods such as Fourier descriptors. Convolutional Neural
Networks (CNNs) are rarely used for contour tracing. However, we find CNNs are
tailor-made for this task and that's why we present the Walk the Lines (WtL)
algorithm, a standard regression CNN trained to follow object contours. To make
the first step, we train the CNN only on ship contours, but the principle is
also applicable to other objects. Input data are the image and the associated
object contour prediction of the recently published RefineContourNet. The WtL
gets a center pixel, which defines an input section and an angle for rotating
this section. Ideally, the center pixel moves on the contour, while the angle
describes upcoming directional contour changes. The WtL predicts its steps
pixelwise in a selfrouting way. To obtain a complete object contour the WtL
runs in parallel at different image locations and the traces of its individual
paths are summed. In contrast to the comparable Non-Maximum Suppression method,
our approach produces connected contours with finer details. Finally, the
object contour is binarized under the condition of being closed. In case all
procedures work as desired, excellent ship segmentations with high IoUs are
produced, showing details such as antennas and ship superstructures that are
easily omitted by other segmentation methods.
- Abstract(参考訳): 我々は,最新の物体輪郭検出器の結果を向上させる新しい輪郭追跡アルゴリズムを開発した。
このタイプの輪郭はフーリエ記述子のような手法を用いて分析できるため、完全に閉じた1ピクセルの細かな物体輪郭を達成することが目的である。
畳み込みニューラルネットワーク(cnns)は輪郭追跡にはほとんど使われない。
しかし、CNNは、このタスクに適したものなので、オブジェクトの輪郭に従うように訓練された標準回帰CNNであるウォーク・ザ・ライン(WtL)アルゴリズムを提示する。
最初のステップでは、船の輪郭のみにCNNをトレーニングしますが、原則は他のオブジェクトにも適用できます。
入力データは、最近発表されたrefinecontournetの画像および関連するオブジェクト輪郭予測である。
WtLは中心画素を取得し、入力部とこの部を回転させる角度を定義する。
理想的には、中心のピクセルは輪郭上を動き、角度は今後の方向輪郭の変化を表す。
WtLは自走式でステップをピクセル単位で予測する。
WtLが異なる画像位置で並列に実行され、個々のパスのトレースが要約される完全なオブジェクト輪郭を得る。
同等の非最大抑圧法とは対照的に、我々の手法はより細部で連結な輪郭を生成する。
最後に、物体の輪郭は閉じた状態で二項化される。
全ての手順が望まれている場合、高いIoUを持つ優れた船舶セグメンテーションが作成され、アンテナや船の上部構造などの細部が他のセグメンテーション法によって容易に省略される。
関連論文リスト
- ContourRender: Detecting Arbitrary Contour Shape For Instance
Segmentation In One Pass [48.57232627854642]
一方のパスにおける輪郭点の回帰の難しさは、滑らかな輪郭をポリゴンに識別する際のあいまいさが主な原因である。
あいまいさに対処するために,textbfContourRender という新しい差別化可能なレンダリング方式を提案する。
まず、可逆形状シグネチャによって生成された輪郭を予測し、それから、より安定したシルエットで輪郭を最適化し、それを輪郭メッシュに変換してメッシュを2Dマップにレンダリングする。
論文 参考訳(メタデータ) (2021-06-07T07:23:03Z) - Polygonal Point Set Tracking [50.445151155209246]
本稿では,学習に基づく多角形点集合追跡手法を提案する。
私たちのゴールは、ターゲットの輪郭上の対応する点を追跡することです。
本稿では,部分歪みとテキストマッピングに対する本手法の視覚効果について述べる。
論文 参考訳(メタデータ) (2021-05-30T17:12:36Z) - Cuboids Revisited: Learning Robust 3D Shape Fitting to Single RGB Images [44.223070672713455]
特に、人為的な環境は、一般的にキュービドやシリンダーのようなボリュームプリミティブから成り立っている。
従来のアプローチでは、2Dまたは3D入力から直接形状パラメータを推定し、単純なオブジェクトのみを再現できる。
立方体を用いた実世界の環境を有意義に抽象化するプリミティブフィッティングのための堅牢な推定器を提案する。
論文 参考訳(メタデータ) (2021-05-05T13:36:00Z) - Learning Spatio-Temporal Transformer for Visual Tracking [108.11680070733598]
本稿では,エンコーダ・デコーダ変換器をキーコンポーネントとする新しいトラッキングアーキテクチャを提案する。
メソッド全体がエンドツーエンドであり、コサインウィンドウやバウンディングボックススムーシングのような後処理ステップは不要である。
提案されたトラッカーは、Siam R-CNNよりも6倍速いリアルタイム速度を実行しながら、5つのチャレンジングな短期および長期ベンチマークで最先端のパフォーマンスを実現します。
論文 参考訳(メタデータ) (2021-03-31T15:19:19Z) - Learning Geometry-Disentangled Representation for Complementary
Understanding of 3D Object Point Cloud [50.56461318879761]
3次元画像処理のためのGDANet(Geometry-Disentangled Attention Network)を提案する。
GDANetは、点雲を3Dオブジェクトの輪郭と平らな部分に切り離し、それぞれ鋭い変化成分と穏やかな変化成分で表される。
3Dオブジェクトの分類とセグメンテーションベンチマークの実験は、GDANetがより少ないパラメータで最先端の処理を実現していることを示している。
論文 参考訳(メタデータ) (2020-12-20T13:35:00Z) - End-to-end Deep Object Tracking with Circular Loss Function for Rotated
Bounding Box [68.8204255655161]
Transformer Multi-Head Attentionアーキテクチャに基づく新しいエンドツーエンドのディープラーニング手法を紹介します。
また,境界ボックスの重なりと向きを考慮に入れた新しいタイプの損失関数を提案する。
論文 参考訳(メタデータ) (2020-12-17T17:29:29Z) - ContourCNN: convolutional neural network for contour data classification [0.0]
本稿では,輪郭データ解析(ContourCNN)と形状分類のための新しい畳み込みニューラルネットワークモデルを提案する。
輪郭表現の循環特性を扱うために円形の畳み込み層を用いる。
情報の空間性に対処するために,その大きさに基づいて特徴を選別する優先度プーリング層を導入する。
論文 参考訳(メタデータ) (2020-09-20T11:56:47Z) - ContourRend: A Segmentation Method for Improving Contours by Rendering [10.13129256609938]
マスクベースのセグメンテーションは粗い予測グリッドで輪郭特徴をうまく扱えない。
本稿では,畳み込み輪郭を改良するために畳み込み輪郭を用いるContourendを提案する。
本手法は, 平均結合面積が72.41%に達し, ベースラインのポリゴンGCNを1.22%超える。
論文 参考訳(メタデータ) (2020-07-15T02:16:00Z) - Quantization in Relative Gradient Angle Domain For Building Polygon
Estimation [88.80146152060888]
CNNアプローチは、しばしばノイズの多いエッジや丸いコーナーを含む不正確な建築形態を生成する。
CNNセグメンテーション出力から角状かつ簡潔なビルディングポリゴンを生成するために,ビルディングコーナーの事前知識を利用するモジュールを提案する。
提案手法は, 円形近似によるCNN出力を, より鮮明な形状の建物足跡に改良することを示した。
論文 参考訳(メタデータ) (2020-07-10T21:33:06Z) - Convex Shape Prior for Deep Neural Convolution Network based Eye Fundus
Images Segmentation [6.163107242394357]
画像分割のためによく使われるDCNNに容易に統合できる手法を提案する。
本手法は,DCNNにおけるシグモイド活性化関数の二重表現に基づく。
提案手法は,従来のDCNNセグメンテーション法よりも効率が高く,性能も優れていることを示す。
論文 参考訳(メタデータ) (2020-05-15T11:36:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。