論文の概要: Walk the Lines 2: Contour Tracking for Detailed Segmentation
- arxiv url: http://arxiv.org/abs/2511.05210v1
- Date: Fri, 07 Nov 2025 12:58:31 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-10 21:00:44.764569
- Title: Walk the Lines 2: Contour Tracking for Detailed Segmentation
- Title(参考訳): ウォーク・ザ・ライン2:詳細なセグメンテーションのための輪郭追跡
- Authors: André Peter Kelm, Max Braeschke, Emre Gülsoylu, Simone Frintrop,
- Abstract要約: 本稿では、赤外線(IR)船とRGB内の様々な物体の詳細なセグメンテーションに特化して適合する独自の輪郭追跡アルゴリズムであるウォーク・ザ・ライン2(WtL2)について述べる。
WtL2は、元のスコープを超えてWtLのアプリケーション範囲を広げ、IRに適応し、RGBコンテキスト内で多様なオブジェクトに拡張する。
さらに、このアルゴリズムは、幅広いRGBオブジェクトを処理するよう拡張され、閉じたオブジェクトの輪郭を達成する際に、最新の輪郭法よりも優れており、印象的な詳細で最高峰のIoU(Intersection over Union)を提供する。
- 参考スコア(独自算出の注目度): 2.4615755100550984
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This paper presents Walk the Lines 2 (WtL2), a unique contour tracking algorithm specifically adapted for detailed segmentation of infrared (IR) ships and various objects in RGB.1 This extends the original Walk the Lines (WtL) [12], which focused solely on detailed ship segmentation in color. These innovative WtLs can replace the standard non-maximum suppression (NMS) by using contour tracking to refine the object contour until a 1-pixel-wide closed shape can be binarized, forming a segmentable area in foreground-background scenarios. WtL2 broadens the application range of WtL beyond its original scope, adapting to IR and expanding to diverse objects within the RGB context. To achieve IR segmentation, we adapt its input, the object contour detector, to IR ships. In addition, the algorithm is enhanced to process a wide range of RGB objects, outperforming the latest generation of contour-based methods when achieving a closed object contour, offering high peak Intersection over Union (IoU) with impressive details. This positions WtL2 as a compelling method for specialized applications that require detailed segmentation or high-quality samples, potentially accelerating progress in several niche areas of image segmentation.
- Abstract(参考訳): 本稿では、赤外線(IR)船とRGB.1の様々な物体の詳細なセグメンテーションに特化して適合するユニークな輪郭追跡アルゴリズムであるウォーク・ザ・ライン2(WtL2)について述べる。
これは、船の詳細なセグメンテーションのみに焦点を当てたオリジナルのウォーク・ザ・ラインズ (WtL) [12] を拡張します。
これらの革新的なWtLは、1ピクセル幅のクローズドな形状をバイナライズし、前景のシナリオで分割可能な領域を形成するまで、輪郭追跡を用いてオブジェクトの輪郭を洗練させることにより、標準の非最大抑圧(NMS)を置き換えることができる。
WtL2は、元のスコープを超えてWtLのアプリケーション範囲を広げ、IRに適応し、RGBコンテキスト内で多様なオブジェクトに拡張する。
赤外線のセグメンテーションを実現するため、物体輪郭検出器の入力を赤外線船に適応させる。
さらに、このアルゴリズムは幅広いRGBオブジェクトを処理するよう拡張され、閉じたオブジェクトの輪郭を達成する際に、最新世代の輪郭法よりも優れており、印象的な詳細で最高峰のIoU(Intersection over Union)を提供する。
これによりWtL2は、詳細なセグメンテーションや高品質なサンプルを必要とする特殊なアプリケーションのための魅力的な方法であり、画像セグメンテーションのニッチ領域における進歩を加速させる可能性がある。
関連論文リスト
- RGBX-DiffusionDet: A Framework for Multi-Modal RGB-X Object Detection Using DiffusionDet [0.0]
RGBX-DiffusionDetはDiffusionDetモデルを拡張するオブジェクト検出フレームワークである。
適応型マルチモーダルエンコーダにより、不均一な2Dデータ(X)をRGB画像と融合する。
論文 参考訳(メタデータ) (2025-05-05T11:39:51Z) - RGB-D Video Object Segmentation via Enhanced Multi-store Feature Memory [34.406308400305385]
RGB-D (RGB-D) Video Object (VOS) は、RGBのきめ細かいテクスチャ情報を奥行きの幾何学的手がかりと統合することを目的としている。
本稿では,ロバストセグメンテーションのためのマルチストア機能メモリを用いた新しいRGB-D VOSを提案する。
本稿では,最新のRGB-D VOSベンチマークにおいて,提案手法の最先端性能を示す。
論文 参考訳(メタデータ) (2025-04-23T07:31:37Z) - The Devil is in the Details: Boosting Guided Depth Super-Resolution via
Rethinking Cross-Modal Alignment and Aggregation [41.12790340577986]
誘導深度超解像(GDSR)は、同じシーンの高解像度のRGB画像を用いて、行方不明の深度の詳細を復元する。
それまでのアプローチでは、マルチモーダル入力の不均一性と相補性に苦慮し、モーダルなミスアライメント、幾何学的なミスアライメント、特徴選択といった問題を無視してきた。
論文 参考訳(メタデータ) (2024-01-16T05:37:08Z) - Spherical Space Feature Decomposition for Guided Depth Map
Super-Resolution [123.04455334124188]
誘導深度マップ超解像(GDSR)は、低解像度(LR)深度マップに高解像度(HR)RGB画像を含む追加情報を加えることを目的としている。
本稿では,この問題を解決するために,Spherical Space Feature Decomposition Network (SSDNet)を提案する。
提案手法は,4つのテストデータセットの最先端結果と実世界のシーンへの一般化を実現する。
論文 参考訳(メタデータ) (2023-03-15T21:22:21Z) - CIR-Net: Cross-modality Interaction and Refinement for RGB-D Salient
Object Detection [144.66411561224507]
本稿では,CIR-Netと呼ばれる畳み込みニューラルネットワーク(CNN)モデルを提案する。
我々のネットワークは、定性的かつ定量的に最先端の塩分濃度検出器より優れています。
論文 参考訳(メタデータ) (2022-10-06T11:59:19Z) - Depth-Adapted CNNs for RGB-D Semantic Segmentation [2.341385717236931]
我々は、RGB畳み込みニューラルネットワーク(CNN)に深度情報を組み込む新しい枠組みを提案する。
具体的には、Z-ACNは2次元奥行き適応オフセットを生成し、RGB画像の特徴抽出を誘導する低レベル特徴に完全に制約される。
生成されたオフセットでは、基本的なCNN演算子を置き換えるために、2つの直感的で効果的な操作を導入する。
論文 参考訳(メタデータ) (2022-06-08T14:59:40Z) - Cross-modality Discrepant Interaction Network for RGB-D Salient Object
Detection [78.47767202232298]
本稿では,RGB-D SODのためのクロスモダリティ離散相互作用ネットワーク(CDINet)を提案する。
2つのコンポーネントは、効果的な相互モダリティ相互作用を実装するように設計されている。
我々のネットワークは、定量的にも質的にも15ドルの最先端の手法より優れています。
論文 参考訳(メタデータ) (2021-08-04T11:24:42Z) - Data-Level Recombination and Lightweight Fusion Scheme for RGB-D Salient
Object Detection [73.31632581915201]
深部特徴抽出に先立って,RGBとD(深部)を融合する新たなデータレベル組換え手法を提案する。
新たに設計された3重ストリームネットワークをこれらの新しい定式化データ上に適用し,RGBとDのチャネルワイドな相補的融合状態を実現する。
論文 参考訳(メタデータ) (2020-08-07T10:13:05Z) - Bi-directional Cross-Modality Feature Propagation with
Separation-and-Aggregation Gate for RGB-D Semantic Segmentation [59.94819184452694]
深度情報はRGBD画像のセマンティックセグメンテーションにおいて有用であることが証明されている。
既存のほとんどの研究は、深度測定がRGBピクセルと正確で整合していると仮定し、問題をモーダルな特徴融合としてモデル化している。
本稿では,RGB特徴量応答を効果的に再検討するだけでなく,複数の段階を通して正確な深度情報を抽出し,代わりに2つの補正表現を集約する,統一的で効率的なクロスモダリティガイドを提案する。
論文 参考訳(メタデータ) (2020-07-17T18:35:24Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。