論文の概要: LINEA: Fast and Accurate Line Detection Using Scalable Transformers
- arxiv url: http://arxiv.org/abs/2505.16264v1
- Date: Thu, 22 May 2025 05:56:10 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-23 17:12:48.072546
- Title: LINEA: Fast and Accurate Line Detection Using Scalable Transformers
- Title(参考訳): LINEA:スケーラブルトランスを用いた高速かつ高精度な線検出
- Authors: Sebastian Janampa, Marios Pattichis,
- Abstract要約: ライン検出は、高レベルな処理手法で使用される基本的なデジタル画像処理操作である。
近年の変圧器を用いた線検出法は、CNNの手法よりも精度が高く、推論速度が著しく低いことが証明されている。
本稿では,大規模データセットに対する注意機構の事前訓練を必要とせず,はるかに高速なトランスフォーマーに基づく新しい手法を提案する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Line detection is a basic digital image processing operation used by higher-level processing methods. Recently, transformer-based methods for line detection have proven to be more accurate than methods based on CNNs, at the expense of significantly lower inference speeds. As a result, video analysis methods that require low latencies cannot benefit from current transformer-based methods for line detection. In addition, current transformer-based models require pretraining attention mechanisms on large datasets (e.g., COCO or Object360). This paper develops a new transformer-based method that is significantly faster without requiring pretraining the attention mechanism on large datasets. We eliminate the need to pre-train the attention mechanism using a new mechanism, Deformable Line Attention (DLA). We use the term LINEA to refer to our new transformer-based method based on DLA. Extensive experiments show that LINEA is significantly faster and outperforms previous models on sAP in out-of-distribution dataset testing.
- Abstract(参考訳): ライン検出は、高レベルな処理手法で使用される基本的なデジタル画像処理操作である。
近年,変圧器を用いた線検出法は,CNNの手法よりも精度が高く,推論速度が著しく低いことが判明している。
その結果、低レイテンシを必要とするビデオ解析手法は、現在のトランスフォーマーに基づくライン検出手法の恩恵を受けることができない。
さらに、現在のトランスフォーマーベースのモデルでは、大規模なデータセット(例えば、COCOやObject360)に注意メカニズムを事前訓練する必要がある。
本稿では,大規模データセットに対する注意機構の事前学習を必要とせず,はるかに高速なトランスフォーマーに基づく新しい手法を提案する。
我々は、新しいメカニズムであるDeformable Line Attention (DLA) を用いて、注意機構を事前訓練する必要がない。
LINEAという用語は、DLAに基づく新しいトランスフォーマーベースの手法を指す。
大規模な実験により、LINEAは、アウト・オブ・ディストリビューションデータセットテストにおいて、SAPの以前のモデルよりも大幅に高速で、パフォーマンスが向上していることが示された。
関連論文リスト
- Improving Transformer Based Line Segment Detection with Matched Predicting and Re-ranking [21.2588921381058]
RANK-LETRはトランスフォーマーを用いた新しい線分検出法である。
提案手法では,線分の中心に最も近い特徴点が位置を直接予測する。
実験の結果,提案手法は予測精度において他のTransformerベースおよびCNNベースアプローチよりも優れていた。
論文 参考訳(メタデータ) (2025-02-25T01:54:40Z) - Linear Transformers are Versatile In-Context Learners [19.988368693379087]
線形変圧器の各層が負の線形回帰問題に対する重みベクトルを維持していることを示す。
また、異なるレベルのノイズでトレーニングデータが破損する難易度シナリオにおける線形変圧器の使用についても検討する。
ここでは,線形変圧器が複雑かつ高効率な最適化アルゴリズムを発見することを実証する。
論文 参考訳(メタデータ) (2024-02-21T23:45:57Z) - Transmission Line Detection Based on Improved Hough Transform [8.243900941694138]
複雑な背景における伝送線路検出に適したHough変換手法を提案する。
偽陽性と誤検出の両方を著しく低減し,伝送線路識別の精度を向上した。
論文 参考訳(メタデータ) (2024-02-05T06:37:09Z) - Transformers as Decision Makers: Provable In-Context Reinforcement Learning via Supervised Pretraining [25.669038513039357]
本稿では,テキスト内強化学習のための教師付き事前学習を理論的に分析する枠組みを提案する。
ReLUに着目した変換器は、最適に近いオンライン強化学習アルゴリズムを効率的に近似できることを示す。
論文 参考訳(メタデータ) (2023-10-12T17:55:02Z) - DeepLSD: Line Segment Detection and Refinement with Deep Image Gradients [105.25109274550607]
ラインセグメントは、視覚タスクでますます使われています。
画像勾配に基づく従来の線検出器は非常に高速で精度が高いが、ノイズの多い画像や困難な条件では頑丈さに欠ける。
我々は、両方の世界を最大限に活用するために、伝統的なアプローチと学習されたアプローチを組み合わせることを提案する。
論文 参考訳(メタデータ) (2022-12-15T12:36:49Z) - Towards Data-Efficient Detection Transformers [77.43470797296906]
我々は、ほとんどの検出トランスフォーマーが、小さなデータセットで大きなパフォーマンス低下に悩まされていることを示す。
我々はデータ効率に影響を与える要因を、データ効率のRCNNから代表DETRへのステップバイステップ遷移によって実証的に分析する。
本稿では,よりリッチな監視とデータ効率向上を目的とした,シンプルながら効果的なラベル拡張手法を提案する。
論文 参考訳(メタデータ) (2022-03-17T17:56:34Z) - XAI for Transformers: Better Explanations through Conservative
Propagation [60.67748036747221]
変換器の勾配は局所的にのみ関数を反映しており、入力特徴の予測への寄与を確実に識別できないことを示す。
我々の提案は、よく確立されたLPP法のトランスフォーマーへの適切な拡張と見なすことができる。
論文 参考訳(メタデータ) (2022-02-15T10:47:11Z) - DA-DETR: Domain Adaptive Detection Transformer with Information Fusion [53.25930448542148]
DA-DETRは、ラベル付きソースドメインからラベルなしターゲットドメインへの効果的な転送のための情報融合を導入するドメイン適応型オブジェクト検出変換器である。
本稿では,CNN機能とトランスフォーマー機能を融合した新しいCNN-Transformer Blender(CTBlender)を提案する。
CTBlenderはTransformer機能を使用して、高レベルの意味情報と低レベルの空間情報が融合した複数のスケールでCNN機能を変調し、正確な物体識別と位置決めを行う。
論文 参考訳(メタデータ) (2021-03-31T13:55:56Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。