論文の概要: CT-Bound: Fast Boundary Estimation From Noisy Images Via Hybrid Convolution and Transformer Neural Networks
- arxiv url: http://arxiv.org/abs/2403.16494v1
- Date: Mon, 25 Mar 2024 07:22:22 GMT
- ステータス: 処理完了
- システム内更新日: 2024-03-26 15:37:57.124838
- Title: CT-Bound: Fast Boundary Estimation From Noisy Images Via Hybrid Convolution and Transformer Neural Networks
- Title(参考訳): CT境界:ハイブリッド畳み込みとトランスフォーマーニューラルネットワークによるノイズ画像の高速境界推定
- Authors: Wei Xu, Junjie Luo, Qi Guo,
- Abstract要約: 本稿では,ハイブリッド畳み込みとトランスフォーマーニューラルネットワークを用いた雑音画像の高速境界推定法であるCT-Boundを提案する。
従来の最高精度の方法と比較すると、CT-Boundは100倍高速で、比較可能な精度、高品質な境界線、カラーマップを生成する。
また、CT-Boundは、追加の微調整やリアルタイム境界マップやカラーマップを毎秒10フレームで作成することなく、実撮影画像上で境界マップとカラーマップを作成できることを実証した。
- 参考スコア(独自算出の注目度): 10.622511683372815
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: We present CT-Bound, a fast boundary estimation method for noisy images using a hybrid Convolution and Transformer neural network. The proposed architecture decomposes boundary estimation into two tasks: local detection and global regularization of image boundaries. It first estimates a parametric representation of boundary structures only using the input image within a small receptive field and then refines the boundary structure in the parameter domain without accessing the input image. Because of this, a part of the network can be easily trained using naive, synthetic images and still generalized to real images, and the entire architecture is computationally efficient as the boundary refinement is non-iterative and not in the image domain. Compared with the previous highest accuracy methods, our experiment shows that CT-Bound is 100 times faster, producing comparably accurate, high-quality boundary and color maps. We also demonstrate that CT-Bound can produce boundary and color maps on real captured images without extra fine-tuning and real-time boundary map and color map videos at ten frames per second.
- Abstract(参考訳): 本稿では,ハイブリッド畳み込みとトランスフォーマーニューラルネットワークを用いた雑音画像の高速境界推定法であるCT-Boundを提案する。
提案アーキテクチャでは,画像境界の局所的検出と大域的正規化という2つのタスクに境界推定を分解する。
まず、入力画像のみを使用して小さな受容領域内で境界構造のパラメトリック表現を推定し、入力画像にアクセスすることなくパラメータ領域の境界構造を洗練する。
このため、ネットワークの一部は、単純で合成された画像で容易に訓練でき、実際の画像に一般化され、境界の精細化が非理想的であり、画像領域にはないため、全体のアーキテクチャは計算的に効率的である。
従来の最高精度の手法と比較すると、CT-Boundは100倍高速で、比較可能な精度、高品質な境界線、カラーマップを生成する。
また、CT-Boundは、追加の微調整やリアルタイム境界マップやカラーマップを毎秒10フレームで作成することなく、実撮影画像上で境界マップとカラーマップを作成できることを実証した。
関連論文リスト
- EDCSSM: Edge Detection with Convolutional State Space Model [3.649463841174485]
画像のエッジ検出は、コンピュータグラフィックスにおける多くの複雑なタスクの基礎となっている。
多層畳み込みとプールアーキテクチャによる特徴損失のため、学習ベースのエッジ検出モデルは、しばしば厚いエッジを生成する。
本稿では,上記の問題に効果的に対処するエッジ検出アルゴリズムを提案する。
論文 参考訳(メタデータ) (2024-09-03T05:13:25Z) - Boosting Cross-Domain Point Classification via Distilling Relational Priors from 2D Transformers [59.0181939916084]
従来の3Dネットワークは主に局所幾何学的詳細に焦点を当て、局所幾何学間の位相構造を無視する。
そこで本稿では,大規模画像上においてよく訓練されたトランスフォーマーから前駆体を抽出する,新しい先駆体蒸留法を提案する。
PointDA-10とSim-to-Realデータセットの実験は、提案手法が点クラウド分類におけるUDAの最先端性能を一貫して達成していることを検証する。
論文 参考訳(メタデータ) (2024-07-26T06:29:09Z) - TCCT-Net: Two-Stream Network Architecture for Fast and Efficient Engagement Estimation via Behavioral Feature Signals [58.865901821451295]
本稿では,新しい2ストリーム機能融合 "Tensor-Convolution and Convolution-Transformer Network" (TCCT-Net) アーキテクチャを提案する。
時間空間領域における意味のあるパターンをよりよく学習するために、ハイブリッド畳み込み変換器を統合する「CT」ストリームを設計する。
並行して、時間周波数領域からリッチなパターンを効率的に抽出するために、連続ウェーブレット変換(CWT)を用いて情報を2次元テンソル形式で表現する「TC」ストリームを導入する。
論文 参考訳(メタデータ) (2024-04-15T06:01:48Z) - Distance Weighted Trans Network for Image Completion [52.318730994423106]
本稿では,DWT(Distance-based Weighted Transformer)を利用した画像コンポーネント間の関係をよりよく理解するためのアーキテクチャを提案する。
CNNは、粗い事前の局所的なテクスチャ情報を強化するために使用される。
DWTブロックは、特定の粗いテクスチャやコヒーレントな視覚構造を復元するために使用される。
論文 参考訳(メタデータ) (2023-10-11T12:46:11Z) - FocalUNETR: A Focal Transformer for Boundary-aware Segmentation of CT
Images [6.616213497895369]
局所的な視覚特徴と大域的な文脈をCT画像から抽出する焦点変換器を用いた画像分割アーキテクチャを提案する。
この設計により、他の競合手法よりもCTベースの前立腺分割作業の質が大幅に向上することが実証された。
論文 参考訳(メタデータ) (2022-10-06T20:06:24Z) - Structured Context Transformer for Generic Event Boundary Detection [32.09242716244653]
我々は、ジェネリックイベント境界検出タスクを解決するために、構造化コンテキスト変換器(SC-Transformer)を提案する。
バックボーン畳み込みニューラルネットワーク(CNN)を用いて,各ビデオフレームの特徴を抽出する。
グループ化された類似性マップに基づいてイベント境界を決定するために、軽量な完全畳み込みネットワークが使用される。
論文 参考訳(メタデータ) (2022-06-07T03:00:24Z) - TBNet:Two-Stream Boundary-aware Network for Generic Image Manipulation
Localization [49.521622399483846]
汎用画像操作のローカライゼーションのための新しいエンド・ツー・エンド2ストリーム境界対応ネットワーク(TBNet)を提案する。
提案したTBNetは、MCCとF1の両方の観点から、最先端の汎用画像操作のローカライズ手法を大幅に上回ることができる。
論文 参考訳(メタデータ) (2021-08-10T08:22:05Z) - DeepStrip: High Resolution Boundary Refinement [60.00241966809684]
関心領域をストリップ画像に変換し、ストリップ領域の境界予測を計算することを提案する。
対象境界を検出するために,2つの予測層を持つフレームワークを提案する。
我々は、誤報を減らすために、整合性とC0連続性正規化をネットワークに強制する。
論文 参考訳(メタデータ) (2020-03-25T22:44:48Z) - Saliency Enhancement using Gradient Domain Edges Merging [65.90255950853674]
本研究では,エッジとサリエンシマップをマージして,サリエンシマップの性能を向上させる手法を開発した。
これにより、DUT-OMRONデータセットの少なくとも3.4倍の平均的な改善により、エッジ(SEE)を使用したサリエンシ向上が提案された。
SEEアルゴリズムは前処理のためのSEE-Preと後処理のためのSEE-Postの2つの部分に分けられる。
論文 参考訳(メタデータ) (2020-02-11T14:04:56Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。