論文の概要: CT-Bound: Robust Boundary Detection From Noisy Images Via Hybrid Convolution and Transformer Neural Networks
- arxiv url: http://arxiv.org/abs/2403.16494v2
- Date: Tue, 25 Jun 2024 17:56:21 GMT
- ステータス: 処理完了
- システム内更新日: 2024-06-26 20:09:17.392418
- Title: CT-Bound: Robust Boundary Detection From Noisy Images Via Hybrid Convolution and Transformer Neural Networks
- Title(参考訳): CT境界:ハイブリッド畳み込みとトランスフォーマーニューラルネットワークによる雑音画像からのロバスト境界検出
- Authors: Wei Xu, Junjie Luo, Qi Guo,
- Abstract要約: 我々は,畳み込みとトランスフォーマーのハイブリッドニューラルネットワークを用いて,非常にノイズの多い画像に対して,頑健で高速な境界検出手法であるCT-Boundを提案する。
局所的な検出では、各画像パッチの境界構造を予測するために畳み込みアーキテクチャを使用する。
次に、フィードフォワードトランスフォーマーアーキテクチャを用いて、各パッチの境界構造をグローバルに洗練し、エッジマップとスムーズなカラーマップを同時に生成する。
- 参考スコア(独自算出の注目度): 10.622511683372815
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: We present CT-Bound, a robust and fast boundary detection method for very noisy images using a hybrid Convolution and Transformer neural network. The proposed architecture decomposes boundary estimation into two tasks: local detection and global regularization. During the local detection, the model uses a convolutional architecture to predict the boundary structure of each image patch in the form of a pre-defined local boundary representation, the field-of-junctions (FoJ). Then, it uses a feed-forward transformer architecture to globally refine the boundary structures of each patch to generate an edge map and a smoothed color map simultaneously. Our quantitative analysis shows that CT-Bound outperforms the previous best algorithms in edge detection on very noisy images. It also increases the edge detection accuracy of FoJ-based methods while having a 3-time speed improvement. Finally, we demonstrate that CT-Bound can produce boundary and color maps on real captured images without extra fine-tuning and real-time boundary map and color map videos at ten frames per second.
- Abstract(参考訳): 我々は,畳み込みとトランスフォーマーのハイブリッドニューラルネットワークを用いて,非常にノイズの多い画像に対して,頑健で高速な境界検出手法であるCT-Boundを提案する。
提案アーキテクチャは境界推定を局所検出と大域正規化という2つのタスクに分解する。
局所検出において、モデルは畳み込みアーキテクチャを用いて、各画像パッチの境界構造を、予め定義された局所境界表現であるフィールド・オブ・ジャンクション(FoJ)の形式で予測する。
次に、フィードフォワードトランスフォーマーアーキテクチャを用いて、各パッチの境界構造をグローバルに洗練し、エッジマップとスムーズなカラーマップを同時に生成する。
定量的解析により、CT-Boundは、非常にノイズの多い画像のエッジ検出において、これまでで最高のアルゴリズムよりも優れていることが示された。
また、FoJベースの手法のエッジ検出精度を3倍に向上させ、速度を3倍に向上させる。
最後に、CT-Boundは、追加の微調整やリアルタイム境界マップやカラーマップを毎秒10フレームで作成することなく、実撮画像上で境界マップとカラーマップを作成できることを実証した。
関連論文リスト
- EDCSSM: Edge Detection with Convolutional State Space Model [3.649463841174485]
画像のエッジ検出は、コンピュータグラフィックスにおける多くの複雑なタスクの基礎となっている。
多層畳み込みとプールアーキテクチャによる特徴損失のため、学習ベースのエッジ検出モデルは、しばしば厚いエッジを生成する。
本稿では,上記の問題に効果的に対処するエッジ検出アルゴリズムを提案する。
論文 参考訳(メタデータ) (2024-09-03T05:13:25Z) - Boosting Cross-Domain Point Classification via Distilling Relational Priors from 2D Transformers [59.0181939916084]
従来の3Dネットワークは主に局所幾何学的詳細に焦点を当て、局所幾何学間の位相構造を無視する。
そこで本稿では,大規模画像上においてよく訓練されたトランスフォーマーから前駆体を抽出する,新しい先駆体蒸留法を提案する。
PointDA-10とSim-to-Realデータセットの実験は、提案手法が点クラウド分類におけるUDAの最先端性能を一貫して達成していることを検証する。
論文 参考訳(メタデータ) (2024-07-26T06:29:09Z) - TCCT-Net: Two-Stream Network Architecture for Fast and Efficient Engagement Estimation via Behavioral Feature Signals [58.865901821451295]
本稿では,新しい2ストリーム機能融合 "Tensor-Convolution and Convolution-Transformer Network" (TCCT-Net) アーキテクチャを提案する。
時間空間領域における意味のあるパターンをよりよく学習するために、ハイブリッド畳み込み変換器を統合する「CT」ストリームを設計する。
並行して、時間周波数領域からリッチなパターンを効率的に抽出するために、連続ウェーブレット変換(CWT)を用いて情報を2次元テンソル形式で表現する「TC」ストリームを導入する。
論文 参考訳(メタデータ) (2024-04-15T06:01:48Z) - Distance Weighted Trans Network for Image Completion [52.318730994423106]
本稿では,DWT(Distance-based Weighted Transformer)を利用した画像コンポーネント間の関係をよりよく理解するためのアーキテクチャを提案する。
CNNは、粗い事前の局所的なテクスチャ情報を強化するために使用される。
DWTブロックは、特定の粗いテクスチャやコヒーレントな視覚構造を復元するために使用される。
論文 参考訳(メタデータ) (2023-10-11T12:46:11Z) - FocalUNETR: A Focal Transformer for Boundary-aware Segmentation of CT
Images [6.616213497895369]
局所的な視覚特徴と大域的な文脈をCT画像から抽出する焦点変換器を用いた画像分割アーキテクチャを提案する。
この設計により、他の競合手法よりもCTベースの前立腺分割作業の質が大幅に向上することが実証された。
論文 参考訳(メタデータ) (2022-10-06T20:06:24Z) - Structured Context Transformer for Generic Event Boundary Detection [32.09242716244653]
我々は、ジェネリックイベント境界検出タスクを解決するために、構造化コンテキスト変換器(SC-Transformer)を提案する。
バックボーン畳み込みニューラルネットワーク(CNN)を用いて,各ビデオフレームの特徴を抽出する。
グループ化された類似性マップに基づいてイベント境界を決定するために、軽量な完全畳み込みネットワークが使用される。
論文 参考訳(メタデータ) (2022-06-07T03:00:24Z) - TBNet:Two-Stream Boundary-aware Network for Generic Image Manipulation
Localization [49.521622399483846]
汎用画像操作のローカライゼーションのための新しいエンド・ツー・エンド2ストリーム境界対応ネットワーク(TBNet)を提案する。
提案したTBNetは、MCCとF1の両方の観点から、最先端の汎用画像操作のローカライズ手法を大幅に上回ることができる。
論文 参考訳(メタデータ) (2021-08-10T08:22:05Z) - DeepStrip: High Resolution Boundary Refinement [60.00241966809684]
関心領域をストリップ画像に変換し、ストリップ領域の境界予測を計算することを提案する。
対象境界を検出するために,2つの予測層を持つフレームワークを提案する。
我々は、誤報を減らすために、整合性とC0連続性正規化をネットワークに強制する。
論文 参考訳(メタデータ) (2020-03-25T22:44:48Z) - Saliency Enhancement using Gradient Domain Edges Merging [65.90255950853674]
本研究では,エッジとサリエンシマップをマージして,サリエンシマップの性能を向上させる手法を開発した。
これにより、DUT-OMRONデータセットの少なくとも3.4倍の平均的な改善により、エッジ(SEE)を使用したサリエンシ向上が提案された。
SEEアルゴリズムは前処理のためのSEE-Preと後処理のためのSEE-Postの2つの部分に分けられる。
論文 参考訳(メタデータ) (2020-02-11T14:04:56Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。