論文の概要: Application of Ghost-DeblurGAN to Fiducial Marker Detection
- arxiv url: http://arxiv.org/abs/2109.03379v3
- Date: Mon, 14 Feb 2022 03:24:40 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-15 20:49:47.173337
- Title: Application of Ghost-DeblurGAN to Fiducial Marker Detection
- Title(参考訳): Ghost-DeblurGANのフィデューシャルマーカー検出への応用
- Authors: Yibo Liu, Amaldev Haridevan, Hunter Schofield, Jinjun Shan
- Abstract要約: 本稿では,Ghost-DeGAN という,リアルタイムな動きを損なうための軽量な生成対向ネットワークを開発した。
新しい大規模データセットである YorkTag が提案されている。
提案したモデルが YorkTag でトレーニング・テストされたことにより,動画像にフィデューシャルマーカーシステムと併用することにより,Ghost-DeblurGAN がマーカー検出を大幅に改善することが実証された。
- 参考スコア(独自算出の注目度): 1.1470070927586016
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Feature extraction or localization based on the fiducial marker could fail
due to motion blur in real-world robotic applications. To solve this problem, a
lightweight generative adversarial network, named Ghost-DeblurGAN, for
real-time motion deblurring is developed in this paper. Furthermore, on account
that there is no existing deblurring benchmark for such task, a new large-scale
dataset, YorkTag, is proposed that provides pairs of sharp/blurred images
containing fiducial markers. With the proposed model trained and tested on
YorkTag, it is demonstrated that when applied along with fiducial marker
systems to motion-blurred images, Ghost-DeblurGAN improves the marker detection
significantly. The datasets and codes used in this paper are available at:
https://github.com/York-SDCNLab/Ghost-DeblurGAN.
- Abstract(参考訳): 実世界のロボットアプリケーションでは、動きのぼやけが原因でfiducial markerに基づく特徴抽出やローカライズが失敗する可能性がある。
そこで本稿では,リアルタイム動作デブラリングのための軽量な生成型逆ネットワークであるghost-deblurganを開発した。
さらに,このようなタスクのためのデブラリングベンチマークが存在しないことを考慮し,fiducial markersを含むシャープ/ブラリングイメージのペアを提供する,新しい大規模データセットであるyorktagを提案する。
ヨークタグ上でのトレーニングとテストを行った結果,動画像にfiducial markerシステムを適用した場合,ghost-deblurganのマーカー検出精度が著しく向上した。
この論文で使用されるデータセットとコードは、https://github.com/York-SDCNLab/Ghost-DeblurGANで公開されている。
関連論文リスト
- YoloTag: Vision-based Robust UAV Navigation with Fiducial Markers [2.7855886538423182]
リアルタイムな画像マーカーに基づく位置決めシステムであるYoloTagを提案する。
YoloTagは軽量のYOLO v8オブジェクト検出器を使用して、画像中の画像マーカーを正確に検出する。
検出されたマーカーは、UAV状態を推定するために効率的な視点-n-pointアルゴリズムによって使用される。
論文 参考訳(メタデータ) (2024-09-03T23:42:19Z) - LABELMAKER: Automatic Semantic Label Generation from RGB-D Trajectories [59.14011485494713]
この研究は、完全に自動化された2D/3Dラベリングフレームワークを導入し、RGB-Dスキャンのラベルを同等(あるいはそれ以上)の精度で生成できる。
我々は、ScanNetデータセットのラベルを大幅に改善し、これまでラベル付けされていなかったARKitScenesデータセットを自動的にラベル付けすることで、LabelMakerパイプラインの有効性を実証する。
論文 参考訳(メタデータ) (2023-11-20T20:40:24Z) - A Locality-based Neural Solver for Optical Motion Capture [37.28597049192196]
ノイズの多いマーカーデータから、マーカーと関節を異なるタイプのノードとして扱う異種グラフニューラルネットワークを提案する。
本手法は,隠蔽マーカー位置誤差の予測精度の観点から,最先端手法よりも優れていることを示す。
論文 参考訳(メタデータ) (2023-09-01T12:40:17Z) - An Unforgeable Publicly Verifiable Watermark for Large Language Models [84.2805275589553]
現在の透かし検出アルゴリズムは、透かし生成プロセスで使用される秘密鍵を必要としており、公開検出中にセキュリティ違反や偽造の影響を受ける。
両段階で同じキーを使用するのではなく、2つの異なるニューラルネットワークを用いて透かしの生成と検出を行う。
論文 参考訳(メタデータ) (2023-07-30T13:43:27Z) - Omni-DETR: Omni-Supervised Object Detection with Transformers [165.4190908259015]
我々は、ラベルなし、完全ラベル付き、弱ラベル付きアノテーションを使用できるOmni教師付きオブジェクト検出の問題を考察する。
この統一アーキテクチャの下では、異なる種類の弱いラベルを利用して正確な擬似ラベルを生成することができる。
弱いアノテーションは検出性能を向上させるのに役立ち、それらの混合はアノテーションのコストと精度のトレードオフを改善することができる。
論文 参考訳(メタデータ) (2022-03-30T06:36:09Z) - E2ETag: An End-to-End Trainable Method for Generating and Detecting
Fiducial Markers [0.8602553195689513]
E2ETagは、フィデューシャルマーカーと補足検出器を設計するためのエンドツーエンドのトレーニング可能な方法である。
完全な畳み込み検出器ネットワークを使用して、現実世界の挑戦的な環境で検出および分類できるマーカーを生成することを学ぶ。
その結果、E2ETagは理想的な条件下で既存の手法よりも優れていることが示された。
論文 参考訳(メタデータ) (2021-05-29T03:13:14Z) - DeepTag: A General Framework for Fiducial Marker Design and Detection [1.2180122937388957]
フィデューシャルマーカーの設計と検出のための一般的なディープラーニングベースのフレームワークであるDeepTagを提案する。
DeepTagは、さまざまなマーカーファミリの検出をサポートし、カスタマイズされたローカルパターンで新しいマーカーファミリを設計できるようにする。
実験によると、DeepTagはさまざまなマーカーファミリをうまくサポートしており、検出の堅牢性と精度の両方の観点から既存の手法よりも大幅に優れています。
論文 参考訳(メタデータ) (2021-05-28T10:54:59Z) - Video-based Person Re-identification without Bells and Whistles [49.51670583977911]
ビデオベースの人物再識別(Re-ID)は、異なるカメラの下で歩行者を特定するために、ビデオトラッカーとトリミングされたビデオフレームをマッチングすることを目的としている。
従来の方法による不完全な検出と追跡の結果から, 収穫したトラックレットの空間的, 時間的不整合が生じている。
本稿では,深層学習に基づくトラックレットの検出と追跡を適用することで,これらの予期せぬノイズを効果的に低減できる簡易な再検出リンク(DL)モジュールを提案する。
論文 参考訳(メタデータ) (2021-05-22T10:17:38Z) - Detection of Binary Square Fiducial Markers Using an Event Camera [1.0781866671930855]
イベントカメラは、絶対強度値ではなく、光強度(イベント)の変化を出力する新しいタイプのイメージセンサーである。
イベントカメラを用いて二乗二乗マーカーを検出・復号する手法を提案する。
論文 参考訳(メタデータ) (2020-12-11T17:34:47Z) - Dense Label Encoding for Boundary Discontinuity Free Rotation Detection [69.75559390700887]
本稿では,分類に基づく比較的研究の少ない方法論について検討する。
我々は2つの側面でフロンティアを推し進めるための新しい手法を提案する。
航空画像のための大規模公開データセットの実験と視覚解析は,我々のアプローチの有効性を示している。
論文 参考訳(メタデータ) (2020-11-19T05:42:02Z) - EHSOD: CAM-Guided End-to-end Hybrid-Supervised Object Detection with
Cascade Refinement [53.69674636044927]
本稿では,エンド・ツー・エンドのハイブリッド型オブジェクト検出システムであるEHSODについて述べる。
完全なアノテートと弱いアノテートの両方で、ワンショットでトレーニングすることができる。
完全なアノテートされたデータの30%しか持たない複数のオブジェクト検出ベンチマークで、同等の結果が得られる。
論文 参考訳(メタデータ) (2020-02-18T08:04:58Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。