論文の概要: E2ETag: An End-to-End Trainable Method for Generating and Detecting
Fiducial Markers
- arxiv url: http://arxiv.org/abs/2105.14184v1
- Date: Sat, 29 May 2021 03:13:14 GMT
- ステータス: 処理完了
- システム内更新日: 2021-06-01 17:17:16.854001
- Title: E2ETag: An End-to-End Trainable Method for Generating and Detecting
Fiducial Markers
- Title(参考訳): E2ETag: フィデューシャルマーカーの生成と検出のためのエンドツーエンドのトレーニング方法
- Authors: J. Brennan Peace, Eric Psota, Yanfeng Liu, Lance C. P\'erez
- Abstract要約: E2ETagは、フィデューシャルマーカーと補足検出器を設計するためのエンドツーエンドのトレーニング可能な方法である。
完全な畳み込み検出器ネットワークを使用して、現実世界の挑戦的な環境で検出および分類できるマーカーを生成することを学ぶ。
その結果、E2ETagは理想的な条件下で既存の手法よりも優れていることが示された。
- 参考スコア(独自算出の注目度): 0.8602553195689513
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Existing fiducial markers solutions are designed for efficient detection and
decoding, however, their ability to stand out in natural environments is
difficult to infer from relatively limited analysis. Furthermore, worsening
performance in challenging image capture scenarios - such as poor exposure,
motion blur, and off-axis viewing - sheds light on their limitations. E2ETag
introduces an end-to-end trainable method for designing fiducial markers and a
complimentary detector. By introducing back-propagatable marker augmentation
and superimposition into training, the method learns to generate markers that
can be detected and classified in challenging real-world environments using a
fully convolutional detector network. Results demonstrate that E2ETag
outperforms existing methods in ideal conditions and performs much better in
the presence of motion blur, contrast fluctuations, noise, and off-axis viewing
angles. Source code and trained models are available at
https://github.com/jbpeace/E2ETag.
- Abstract(参考訳): 既存のfiducial markersソリューションは効率的な検出と復号のために設計されているが、比較的限定的な分析から、自然環境において際立つ能力は推測が難しい。
さらに、露出の低さ、動きの曖昧さ、軸外視といった、困難なイメージキャプチャシナリオのパフォーマンス低下は、その制限に光を当てている。
E2ETagは、フィデューシャルマーカーと補足検出器を設計するためのエンドツーエンドのトレーニング方法を提供する。
バックプロパゲータブルマーカーの強化と重ね合わせをトレーニングに導入することにより、完全畳み込み検出器ネットワークを用いて、挑戦的な実環境において検出および分類可能なマーカーを生成する。
その結果、E2ETagは既存の手法よりも理想的な条件で優れており、動きのぼやけ、コントラスト変動、ノイズ、オフ軸視角の存在下では、はるかに優れていた。
ソースコードとトレーニングされたモデルはhttps://github.com/jbpeace/e2etagで入手できる。
関連論文リスト
- DeepArUco++: Improved detection of square fiducial markers in challenging lighting conditions [3.783609886054562]
フィデューシャルマーカー(Fiducial marker)は、オブジェクトのポーズ推定と検出に使用されるコンピュータビジョンツールである。
DeepArUco++は、困難な照明条件下でマーカー検出とデコードを実行するフレームワークである。
システム評価に使用する照明条件に挑戦するために,第2のArUcoマーカーのリアルタイムデータセットを提示する。
論文 参考訳(メタデータ) (2024-11-08T13:18:31Z) - Learning Camouflaged Object Detection from Noisy Pseudo Label [60.9005578956798]
本稿では,まず,弱い半教師付きカモフラージュオブジェクト検出(COD)法を提案する。
予算効率が高く高精度なカモフラージュされたオブジェクトセグメンテーションを目標とし、完全にラベル付けされた画像が極めて限られている。
本稿では,早期の学習段階において,モデルが正しい画素の学習を容易にするノイズ補正損失を提案する。
完全ラベル付きデータの20%しか使用しない場合,本手法は最先端の手法よりも優れた性能を示す。
論文 参考訳(メタデータ) (2024-07-18T04:53:51Z) - View Consistent Purification for Accurate Cross-View Localization [59.48131378244399]
本稿では,屋外ロボットのための微細な自己局在化手法を提案する。
提案手法は,既存のクロスビューローカライゼーション手法の限界に対処する。
これは、動的環境における知覚を増強する初めての疎視のみの手法である。
論文 参考訳(メタデータ) (2023-08-16T02:51:52Z) - DeepFormableTag: End-to-end Generation and Recognition of Deformable
Fiducial Markers [27.135078472097895]
既存の検出方法は、マーカーが理想的に平面面に印刷されていると仮定する。
フィデューシャルマーカー生成器は、大規模な情報を符号化する自由形式のカラーパターンのセットを作成する。
微分可能画像シミュレータは、変形マーカーを用いたフォトリアリスティックシーン画像のトレーニングデータセットを作成する。
訓練されたマーカー検出器は興味のある領域を探し、同時に複数のマーカーパターンを認識する。
論文 参考訳(メタデータ) (2022-06-16T09:29:26Z) - Unsupervised Domain Adaptive Salient Object Detection Through
Uncertainty-Aware Pseudo-Label Learning [104.00026716576546]
そこで本研究では,手動のアノテーションを使わずに,自然に高いピクセルラベル品質を有する合成・クリーンなラベルから,サリエンスを学習することを提案する。
提案手法は,複数のベンチマークデータセット上で,既存の最先端の深層教師なしSOD法よりも優れていることを示す。
論文 参考訳(メタデータ) (2022-02-26T16:03:55Z) - Activation to Saliency: Forming High-Quality Labels for Unsupervised
Salient Object Detection [54.92703325989853]
本稿では,高品質なサリエンシキューを効果的に生成する2段階アクティベーション・ツー・サリエンシ(A2S)フレームワークを提案する。
トレーニングプロセス全体において、私たちのフレームワークにヒューマンアノテーションは関与していません。
本フレームワークは,既存のUSOD法と比較して高い性能を示した。
論文 参考訳(メタデータ) (2021-12-07T11:54:06Z) - Application of Ghost-DeblurGAN to Fiducial Marker Detection [1.1470070927586016]
本稿では,Ghost-DeGAN という,リアルタイムな動きを損なうための軽量な生成対向ネットワークを開発した。
新しい大規模データセットである YorkTag が提案されている。
提案したモデルが YorkTag でトレーニング・テストされたことにより,動画像にフィデューシャルマーカーシステムと併用することにより,Ghost-DeblurGAN がマーカー検出を大幅に改善することが実証された。
論文 参考訳(メタデータ) (2021-09-08T00:59:10Z) - DeepTag: A General Framework for Fiducial Marker Design and Detection [1.2180122937388957]
フィデューシャルマーカーの設計と検出のための一般的なディープラーニングベースのフレームワークであるDeepTagを提案する。
DeepTagは、さまざまなマーカーファミリの検出をサポートし、カスタマイズされたローカルパターンで新しいマーカーファミリを設計できるようにする。
実験によると、DeepTagはさまざまなマーカーファミリをうまくサポートしており、検出の堅牢性と精度の両方の観点から既存の手法よりも大幅に優れています。
論文 参考訳(メタデータ) (2021-05-28T10:54:59Z) - Dense Label Encoding for Boundary Discontinuity Free Rotation Detection [69.75559390700887]
本稿では,分類に基づく比較的研究の少ない方法論について検討する。
我々は2つの側面でフロンティアを推し進めるための新しい手法を提案する。
航空画像のための大規模公開データセットの実験と視覚解析は,我々のアプローチの有効性を示している。
論文 参考訳(メタデータ) (2020-11-19T05:42:02Z) - EHSOD: CAM-Guided End-to-end Hybrid-Supervised Object Detection with
Cascade Refinement [53.69674636044927]
本稿では,エンド・ツー・エンドのハイブリッド型オブジェクト検出システムであるEHSODについて述べる。
完全なアノテートと弱いアノテートの両方で、ワンショットでトレーニングすることができる。
完全なアノテートされたデータの30%しか持たない複数のオブジェクト検出ベンチマークで、同等の結果が得られる。
論文 参考訳(メタデータ) (2020-02-18T08:04:58Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。