論文の概要: Ninja Codes: Neurally Generated Fiducial Markers for Stealthy 6-DoF Tracking
- arxiv url: http://arxiv.org/abs/2510.18976v1
- Date: Tue, 21 Oct 2025 18:01:05 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-25 03:08:14.424449
- Title: Ninja Codes: Neurally Generated Fiducial Markers for Stealthy 6-DoF Tracking
- Title(参考訳): Ninja Codes: ステルス6-DoF追跡のためのニューラルネットワークで生成されたフィデューシャルマーカー
- Authors: Yuichiro Takeuchi, Yusuke Imoto, Shunya Kato,
- Abstract要約: 我々はNinja Codesについて説明する。Ninja Codesは、ニューラルネットワークで生成されたフィデューシャルマーカーで、様々な現実世界環境に溶け込むことができる。
エンコーダネットワークは、視覚的にモデストな変更を適用して任意の画像をニンジャコードに変換する。
その結果、プリントされ、表面に貼り付けられたコードは、広範囲のアプリケーションに対してステルスな6-DoF位置追跡を提供する。
- 参考スコア(独自算出の注目度): 2.6189995284654732
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In this paper we describe Ninja Codes, neurally-generated fiducial markers that can be made to naturally blend into various real-world environments. An encoder network converts arbitrary images into Ninja Codes by applying visually modest alterations; the resulting codes, printed and pasted onto surfaces, can provide stealthy 6-DoF location tracking for a wide range of applications including augmented reality, robotics, motion-based user interfaces, etc. Ninja Codes can be printed using off-the-shelf color printers on regular printing paper, and can be detected using any device equipped with a modern RGB camera and capable of running inference. Using an end-to-end process inspired by prior work on deep steganography, we jointly train a series of network modules that perform the creation and detection of Ninja Codes. Through experiments, we demonstrate Ninja Codes' ability to provide reliable location tracking under common indoor lighting conditions, while successfully concealing themselves within diverse environmental textures. We expect Ninja Codes to offer particular value in scenarios where the conspicuous appearances of conventional fiducial markers make them undesirable for aesthetic and other reasons.
- Abstract(参考訳): 本稿では,様々な実環境に自然にブレンドできるニューラルネットワークによるフィデューシャルマーカーであるNinja Codesについて述べる。
エンコーダネットワークは、任意の画像を視覚的に控えめな修正を適用して、ニンジャコードに変換する。その結果、プリントされ、表面に貼り付けられたコードは、拡張現実、ロボティクス、モーションベースのユーザインターフェースなど、幅広いアプリケーションに対して、ステルスな6-DoF位置追跡を提供することができる。
忍者コードは、市販のカラープリンタを使って通常の印刷紙に印刷することができ、近代的なRGBカメラを備えたあらゆる装置で推論を行うことができる。
ディープステガノグラフィーの先行研究に触発されたエンドツーエンドのプロセスを用いて,忍者符号の生成と検出を行う一連のネットワークモジュールを共同で訓練する。
実験を通じて,共通屋内照明条件下での信頼性の高い位置追跡機能を実現するとともに,多様な環境テクスチャに身を隠蔽することに成功した。
我々は、従来のフィデューシャルマーカーの顕著な外観が美的、その他の理由から望ましくないシナリオにおいて、忍者法典が特に価値を提供することを期待している。
関連論文リスト
- Claycode: Stylable and Deformable 2D Scannable Codes [0.0]
Claycodeは、広範囲なスタイリングと変形のために設計された、新しい2Dスキャン可能なコードである。
Claycodesは機能を損なうことなく、広範囲なスタイリゼーションを可能にすることを示す。
次に、Claycodeの重い変形に対する高い耐性を実証的に証明し、通常失敗するシナリオで従来の2Dスキャン可能なコードよりも優れています。
論文 参考訳(メタデータ) (2025-05-13T15:28:06Z) - Perception Encoder: The best visual embeddings are not at the output of the network [70.86738083862099]
本稿では、単純な視覚言語学習によって訓練された画像と映像の理解のための視覚エンコーダであるPerception (PE)を紹介する。
対照的な視覚言語学習だけでは、これらの下流タスクに強力な汎用的な埋め込みを実現できることが分かっています。
PEモデル群は,多種多様なタスクにおいて,クラス内で最高の結果が得られる。
論文 参考訳(メタデータ) (2025-04-17T17:59:57Z) - DeepArUco++: Improved detection of square fiducial markers in challenging lighting conditions [3.783609886054562]
フィデューシャルマーカー(Fiducial marker)は、オブジェクトのポーズ推定と検出に使用されるコンピュータビジョンツールである。
DeepArUco++は、困難な照明条件下でマーカー検出とデコードを実行するフレームワークである。
システム評価に使用する照明条件に挑戦するために,第2のArUcoマーカーのリアルタイムデータセットを提示する。
論文 参考訳(メタデータ) (2024-11-08T13:18:31Z) - Video Inpainting Localization with Contrastive Learning [2.1210527985139227]
ディープ・インペイントは通常、偽ビデオを作成するための重要なオブジェクトを削除する悪質な操作として使用される。
コントロアシブラーニング(ViLocal)を用いた簡易かつ効果的な映像塗装手法を提案する。
論文 参考訳(メタデータ) (2024-06-25T15:15:54Z) - Diverse Inpainting and Editing with GAN Inversion [4.234367850767171]
近年の逆転法では、実画像はStyleGANの潜伏空間に逆転可能であることが示されている。
本稿では,より困難な課題に取り組み,消去された画像をGANの潜伏空間に逆転させ,リアルな塗り絵や編集を行う。
論文 参考訳(メタデータ) (2023-07-27T17:41:36Z) - Neural Implicit Dense Semantic SLAM [83.04331351572277]
本稿では,屋内シーンのメモリ効率,高密度な3次元形状,セマンティックセマンティックセグメンテーションをオンラインで学習する新しいRGBD vSLAMアルゴリズムを提案する。
私たちのパイプラインは、従来の3Dビジョンベースのトラッキングとループクローズとニューラルフィールドベースのマッピングを組み合わせたものです。
提案アルゴリズムはシーン認識を大幅に向上させ,様々なロボット制御問題を支援する。
論文 参考訳(メタデータ) (2023-04-27T23:03:52Z) - 3D-Aware Encoding for Style-based Neural Radiance Fields [50.118687869198716]
我々は、入力画像をNeRFジェネレータの潜時空間に投影する反転関数を学び、潜時符号に基づいて原画像の新しいビューを合成する。
2次元生成モデルのGANインバージョンと比較して、NeRFインバージョンは、1)入力画像の同一性を維持するだけでなく、2)生成した新規なビューにおいて3D一貫性を確保する必要がある。
スタイルベースNeRFインバージョンのための2段階エンコーダを提案する。
論文 参考訳(メタデータ) (2022-11-12T06:14:12Z) - Hiding Images in Deep Probabilistic Models [58.23127414572098]
我々は、画像の深い確率モデルに隠蔽するための異なる計算フレームワークについて述べる。
具体的には、DNNを用いて、カバー画像の確率密度をモデル化し、学習した分布の特定の場所に秘密画像を隠す。
我々は,抽出精度とモデルセキュリティの観点から,SinGANアプローチの実現可能性を示す。
論文 参考訳(メタデータ) (2022-10-05T13:33:25Z) - CodeNeRF: Disentangled Neural Radiance Fields for Object Categories [8.195186340022504]
CodeNeRFは暗黙の3Dニューラル表現で、カテゴリ全体にわたるオブジェクトの形状とテクスチャの変化を学習する。
これは、一連のポーズ画像から、目に見えない物体の新たなビューを合成するために訓練することができる。
論文 参考訳(メタデータ) (2021-09-03T23:02:45Z) - Free-Form Image Inpainting via Contrastive Attention Network [64.05544199212831]
画像の塗装作業では、複雑なパターンを形成する画像のどこにでも、どんな形でもマスクが現れる。
エンコーダはこの複雑な状況下でこのような強力な表現を捕捉することは困難である。
本稿では,ロバスト性と一般化性を改善するための自己教師型シームズ推論ネットワークを提案する。
論文 参考訳(メタデータ) (2020-10-29T14:46:05Z) - Image GANs meet Differentiable Rendering for Inverse Graphics and
Interpretable 3D Neural Rendering [101.56891506498755]
異なるレンダリングによって、ニューラルネットワークをトレーニングして"逆グラフィックス"タスクを実行する方法が舗装された。
提案手法は,既存のデータセットでトレーニングした最先端の逆グラフネットワークを著しく上回ることを示す。
論文 参考訳(メタデータ) (2020-10-18T22:29:07Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。