論文の概要: Improving Transformer Based Line Segment Detection with Matched Predicting and Re-ranking
- arxiv url: http://arxiv.org/abs/2502.17766v1
- Date: Tue, 25 Feb 2025 01:54:40 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-02-26 15:22:23.965153
- Title: Improving Transformer Based Line Segment Detection with Matched Predicting and Re-ranking
- Title(参考訳): 一致予測と再ランク付けによる変圧器ベースラインセグメント検出の改善
- Authors: Xin Tong, Shi Peng, Baojie Tian, Yufei Guo, Xuhui Huang, Zhe Ma,
- Abstract要約: RANK-LETRはトランスフォーマーを用いた新しい線分検出法である。
提案手法では,線分の中心に最も近い特徴点が位置を直接予測する。
実験の結果,提案手法は予測精度において他のTransformerベースおよびCNNベースアプローチよりも優れていた。
- 参考スコア(独自算出の注目度): 21.2588921381058
- License:
- Abstract: Classical Transformer-based line segment detection methods have delivered impressive results. However, we observe that some accurately detected line segments are assigned low confidence scores during prediction, causing them to be ranked lower and potentially suppressed. Additionally, these models often require prolonged training periods to achieve strong performance, largely due to the necessity of bipartite matching. In this paper, we introduce RANK-LETR, a novel Transformer-based line segment detection method. Our approach leverages learnable geometric information to refine the ranking of predicted line segments by enhancing the confidence scores of high-quality predictions in a posterior verification step. We also propose a new line segment proposal method, wherein the feature point nearest to the centroid of the line segment directly predicts the location, significantly improving training efficiency and stability. Moreover, we introduce a line segment ranking loss to stabilize rankings during training, thereby enhancing the generalization capability of the model. Experimental results demonstrate that our method outperforms other Transformer-based and CNN-based approaches in prediction accuracy while requiring fewer training epochs than previous Transformer-based models.
- Abstract(参考訳): 古典的なトランスフォーマーベースの線分検出手法は印象的な結果をもたらした。
しかし, 精度良く検出された線分が予測中に低い信頼度を付与され, 下位にランク付けされ, 潜在的に抑制されることが観察された。
さらに、これらのモデルは、主に二部構成のマッチングを必要とするため、強いパフォーマンスを達成するために、長い訓練期間を必要とすることが多い。
本稿では,新しいトランスフォーマーを用いた線分検出手法であるRANK-LETRを紹介する。
提案手法は,学習可能な幾何情報を利用して,後続検証ステップにおける高品質予測の信頼性スコアを向上することにより,予測ラインセグメントのランク付けを洗練させる。
また,ラインセグメントの遠心点に最も近い特徴点が位置を直接予測し,トレーニング効率と安定性を大幅に向上させる新しいラインセグメント提案手法を提案する。
さらに、トレーニング中のランキングを安定させるために、ラインセグメントランキングの損失を導入し、モデルの一般化能力を向上する。
実験により,提案手法は従来のトランスフォーマーモデルよりもトレーニングエポックを少なく抑えながら,予測精度において他のトランスフォーマーベースおよびCNNベースアプローチよりも優れていることが示された。
関連論文リスト
- Re-evaluating Group Robustness via Adaptive Class-Specific Scaling [47.41034887474166]
群分散ロバスト最適化は、スプリアス相関とアドレスデータセットバイアスを軽減するために使われる顕著なアルゴリズムである。
既存のアプローチでは、堅牢なアキュラシーの改善が報告されているが、固有のトレードオフのため、平均的な精度が犠牲になっている。
本稿では,既存のデバイアスアルゴリズムに直接適用可能なクラス固有のスケーリング戦略を提案する。
我々は、このトレードオフを軽減するために、インスタンスワイド適応スケーリング技術を開発し、堅牢性と平均的アキュラシーの両方の改善に繋がる。
論文 参考訳(メタデータ) (2024-12-19T16:01:51Z) - Protected Test-Time Adaptation via Online Entropy Matching: A Betting Approach [14.958884168060097]
オンライン自己学習によるテスト時間適応のための新しい手法を提案する。
提案手法は,マーチンガレットとオンライン学習の概念を組み合わせることで,分布変化に反応可能な検出ツールを構築する。
実験結果から, 分散シフト時のテスト時間精度は, 精度とキャリブレーションを保ちながら向上することが示された。
論文 参考訳(メタデータ) (2024-08-14T12:40:57Z) - Domain-adaptive and Subgroup-specific Cascaded Temperature Regression
for Out-of-distribution Calibration [16.930766717110053]
本稿では, メタセットをベースとした新しい温度回帰法を提案し, ポストホックキャリブレーション法を提案する。
予測されたカテゴリと信頼度に基づいて,各メタセットをサブグループに分割し,多様な不確実性を捉える。
回帰ネットワークは、カテゴリ特化および信頼レベル特化スケーリングを導出し、メタセット間のキャリブレーションを達成するように訓練される。
論文 参考訳(メタデータ) (2024-02-14T14:35:57Z) - Class-Imbalanced Semi-Supervised Learning for Large-Scale Point Cloud
Semantic Segmentation via Decoupling Optimization [64.36097398869774]
半教師付き学習(SSL)は大規模3Dシーン理解のための活発な研究課題である。
既存のSSLベースのメソッドは、クラス不均衡とポイントクラウドデータのロングテール分布による厳しいトレーニングバイアスに悩まされている。
本稿では,特徴表現学習と分類器を別の最適化方法で切り離してバイアス決定境界を効果的にシフトする,新しいデカップリング最適化フレームワークを提案する。
論文 参考訳(メタデータ) (2024-01-13T04:16:40Z) - In-Context Convergence of Transformers [63.04956160537308]
勾配降下法により訓練したソフトマックスアテンションを有する一層変圧器の学習力学について検討した。
不均衡な特徴を持つデータに対しては、学習力学が段階的に収束する過程をとることを示す。
論文 参考訳(メタデータ) (2023-10-08T17:55:33Z) - Consensus-Adaptive RANSAC [104.87576373187426]
本稿では,パラメータ空間の探索を学習する新しいRANSACフレームワークを提案する。
注意機構は、ポイント・ツー・モデル残差のバッチで動作し、軽量のワンステップ・トランスフォーマーで見いだされたコンセンサスを考慮するために、ポイント・ツー・モデル推定状態を更新する。
論文 参考訳(メタデータ) (2023-07-26T08:25:46Z) - Towards Better Certified Segmentation via Diffusion Models [62.21617614504225]
セグメンテーションモデルは敵の摂動に弱いため、医療や自動運転といった重要な意思決定システムでの使用を妨げます。
近年,理論的保証を得るためにガウス雑音を入力に加えることにより,セグメント化予測のランダム化が提案されている。
本稿では,ランダムな平滑化と拡散モデルを組み合わせたセグメンテーション予測の問題に対処する。
論文 参考訳(メタデータ) (2023-06-16T16:30:39Z) - TWINS: A Fine-Tuning Framework for Improved Transferability of
Adversarial Robustness and Generalization [89.54947228958494]
本稿では,様々な分類タスクにおいて,逆向きに事前訓練されたモデルの微調整に焦点を当てる。
本稿では,TWINS(Two-WIng NormliSation)ファインチューニングフレームワークを提案する。
TWINSは、一般化とロバスト性の両方の観点から、幅広い画像分類データセットに有効であることが示されている。
論文 参考訳(メタデータ) (2023-03-20T14:12:55Z) - Adaptive Dimension Reduction and Variational Inference for Transductive
Few-Shot Classification [2.922007656878633]
適応次元の削減によりさらに改善された変分ベイズ推定に基づく新しいクラスタリング法を提案する。
提案手法は,Few-Shotベンチマークにおける現実的非バランスなトランスダクティブ設定の精度を大幅に向上させる。
論文 参考訳(メタデータ) (2022-09-18T10:29:02Z) - Sample-Efficient Optimisation with Probabilistic Transformer Surrogates [66.98962321504085]
本稿では,ベイズ最適化における最先端確率変換器の適用可能性について検討する。
トレーニング手順と損失定義から生じる2つの欠点を観察し、ブラックボックス最適化のプロキシとして直接デプロイすることを妨げる。
1)非一様分散点を前処理するBO調整トレーニング,2)予測性能を向上させるために最適な定常点をフィルタする新しい近似後正則整定器トレードオフ精度と入力感度を導入する。
論文 参考訳(メタデータ) (2022-05-27T11:13:17Z) - Consistent Accelerated Inference via Confident Adaptive Transformers [29.034390810078172]
我々は,大規模で高価な多層トランスの推論を確実に高速化する新しい手法を開発した。
また,本モデルとの確固たる一貫性を高い信頼度で保証しつつ,計算効率を向上させる。
このアプローチの有効性を4つの分類および回帰タスクで実証する。
論文 参考訳(メタデータ) (2021-04-18T10:22:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。