論文の概要: InfraredTags: Embedding Invisible AR Markers and Barcodes Using
Low-Cost, Infrared-Based 3D Printing and Imaging Tools
- arxiv url: http://arxiv.org/abs/2202.06165v1
- Date: Sat, 12 Feb 2022 23:45:18 GMT
- ステータス: 処理完了
- システム内更新日: 2022-02-16 12:32:49.632728
- Title: InfraredTags: Embedding Invisible AR Markers and Barcodes Using
Low-Cost, Infrared-Based 3D Printing and Imaging Tools
- Title(参考訳): InfraredTags:低コストで赤外線ベースの3Dプリンティングとイメージングツールを用いた見えないARマーカーとバーコード埋め込み
- Authors: Mustafa Doga Dogan (1), Ahmad Taka (1), Michael Lu (1), Yunyi Zhu (1),
Akshat Kumar (1), Aakar Gupta (2), Stefanie Mueller (1) ((1) MIT CSAIL,
Cambridge, MA, USA, (2) Facebook Reality Labs, Redmond, WA, USA)
- Abstract要約: InfraredTagsは2Dマーカーであり、裸眼では認識できないバーコードであり、オブジェクトの一部として3Dプリントできる。
我々は、赤外線カメラで見る赤外線透過フィラメントからオブジェクトをプリントすることで、これを実現する。
InfraredTagsとして3Dプリントできるようにするために,共通タグとオブジェクト形状の統合を容易にするユーザインターフェースを構築した。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Existing approaches for embedding unobtrusive tags inside 3D objects require
either complex fabrication or high-cost imaging equipment. We present
InfraredTags, which are 2D markers and barcodes imperceptible to the naked eye
that can be 3D printed as part of objects, and detected rapidly by low-cost
near-infrared cameras. We achieve this by printing objects from an
infrared-transmitting filament, which infrared cameras can see through, and by
having air gaps inside for the tag's bits, which appear at a different
intensity in the infrared image.
We built a user interface that facilitates the integration of common tags (QR
codes, ArUco markers) with the object geometry to make them 3D printable as
InfraredTags. We also developed a low-cost infrared imaging module that
augments existing mobile devices and decodes tags using our image processing
pipeline. Our evaluation shows that the tags can be detected with little
near-infrared illumination (0.2lux) and from distances as far as 250cm. We
demonstrate how our method enables various applications, such as object
tracking and embedding metadata for augmented reality and tangible
interactions.
- Abstract(参考訳): 既存の3Dオブジェクトに邪魔にならないタグを埋め込むには、複雑な加工や高コスト撮像装置が必要になる。
対象物の一部として3Dプリントできる裸眼では認識できない2Dマーカーとバーコードである赤外線タグを低コストの近赤外線カメラで迅速に検出する。
我々は、赤外線カメラが透視できる赤外線透過フィラメントからオブジェクトをプリントし、赤外線画像に異なる強度で現れるタグのビットに空気の隙間を埋めることにより、これを実現する。
我々は,共通タグ(QRコード,ArUcoマーカー)とオブジェクト形状の統合を容易にするユーザインターフェースを構築し,それを赤外線タグとして3Dプリント可能にする。
また,既存のモバイルデバイスを改良し,画像処理パイプラインを用いてタグをデコードする低コスト赤外線イメージングモジュールを開発した。
その結果,近赤外線(0.2lux)や250cmまでの距離からタグを検出できることがわかった。
本稿では,拡張現実と具体的インタラクションのためのオブジェクト追跡やメタデータ埋め込みなど,様々なアプリケーションを実現する方法を示す。
関連論文リスト
- IRSAM: Advancing Segment Anything Model for Infrared Small Target Detection [55.554484379021524]
Infrared Small Target Detection (IRSTD) タスクは、自然画像と赤外線画像の間に顕著な領域ギャップがあるため、満足度の高い性能を達成するには不十分である。
IRSTDのためのIRSAMモデルを提案する。これはSAMのエンコーダデコーダアーキテクチャを改善し、赤外線小物体の特徴表現をより良く学習する。
論文 参考訳(メタデータ) (2024-07-10T10:17:57Z) - Multi-Modal 3D Object Detection by Box Matching [109.43430123791684]
マルチモーダル3次元検出のためのボックスマッチング(FBMNet)による新しいフュージョンネットワークを提案する。
3Dオブジェクトと2Dオブジェクトの提案を学習することで、ROI特徴を組み合わせることで、検出のための融合を効果的に行うことができる。
論文 参考訳(メタデータ) (2023-05-12T18:08:51Z) - ImLiDAR: Cross-Sensor Dynamic Message Propagation Network for 3D Object
Detection [20.44294678711783]
我々は,カメラ画像とLiDAR点雲のマルチスケール特徴を段階的に融合させることにより,センサ間差を狭める新しい3ODパラダイムであるImLiDARを提案する。
まず,マルチスケール画像とポイント特徴の最良の組み合わせを目的とした,クロスセンサ動的メッセージ伝搬モジュールを提案する。
第二に、効率的なセットベース検出器を設計できるような、直接セット予測問題を提起する。
論文 参考訳(メタデータ) (2022-11-17T13:31:23Z) - RF-Annotate: Automatic RF-Supervised Image Annotation of Common Objects
in Context [0.25019493958767397]
ワイヤレスタグは、小売商品、食品、薬品、衣服、書籍、文書、鍵、機器など、一般的な商品の追跡や識別にますます利用されている。
本稿では,自律的画素画像アノテーションのためのパイプラインRF-Annotateについて述べる。
論文 参考訳(メタデータ) (2022-11-16T11:25:38Z) - Drone Detection and Tracking in Real-Time by Fusion of Different Sensing
Modalities [66.4525391417921]
マルチセンサ・ドローン検知システムの設計と評価を行う。
われわれのソリューションは、魚眼カメラを統合し、空の広い部分を監視し、他のカメラを興味ある対象に向けて操縦する。
このサーマルカメラは、たとえこのカメラが解像度が低いとしても、ビデオカメラと同じくらい実現可能なソリューションであることが示されている。
論文 参考訳(メタデータ) (2022-07-05T10:00:58Z) - Robust Environment Perception for Automated Driving: A Unified Learning
Pipeline for Visual-Infrared Object Detection [2.478658210785]
我々は、頑健な物体検出のために、視覚と熱の両方の知覚ユニットを利用する。
本稿では,物体検出のために,視覚と熱の両方の知覚ユニットを利用する。
論文 参考訳(メタデータ) (2022-06-08T15:02:58Z) - Drone Object Detection Using RGB/IR Fusion [1.5469452301122175]
本研究では,AIRSimシミュレーションエンジンとCycleGANを用いて合成赤外線画像を作成する手法を開発した。
我々は、地上での物体検出のためにRGBとIR画像の融合に照明対応の融合フレームワークを利用する。
我々のソリューションは、実際のドローン上で動作するNVIDIA Jetson Xavier上に実装されており、RGB/IRイメージペアあたり28ミリ秒の処理が必要になります。
論文 参考訳(メタデータ) (2022-01-11T05:15:59Z) - Infrared Small-Dim Target Detection with Transformer under Complex
Backgrounds [155.388487263872]
変換器を用いた赤外線小径目標検出手法を提案する。
画像特徴の相互作用情報をより広い範囲で学習するために,変換器の自己認識機構を採用する。
最小限のターゲットの機能を学習するための機能拡張モジュールも設計しています。
論文 参考訳(メタデータ) (2021-09-29T12:23:41Z) - EagerMOT: 3D Multi-Object Tracking via Sensor Fusion [68.8204255655161]
マルチオブジェクトトラッキング(MOT)により、移動ロボットは周囲の物体を3次元空間と時間で位置づけすることで、良好な動作計画とナビゲーションを行うことができる。
既存の方法は、深度センサー(例えばLiDAR)を使用して3D空間のターゲットを検出し追跡するが、信号の間隔が限られているため、検出範囲は限られている。
我々は,両方のセンサモダリティから利用可能な物体を全て統合し,シーンのダイナミックスを適切に解釈する簡易なトラッキング定式化であるeagermotを提案する。
論文 参考訳(メタデータ) (2021-04-29T22:30:29Z) - Deep Continuous Fusion for Multi-Sensor 3D Object Detection [103.5060007382646]
本稿では,LIDARとカメラを併用して高精度な位置検出を実現する3Dオブジェクト検出器を提案する。
我々は,連続畳み込みを利用して画像とlidar特徴マップを異なるレベルの解像度で融合する,エンドツーエンド学習可能なアーキテクチャを設計した。
論文 参考訳(メタデータ) (2020-12-20T18:43:41Z) - 3D Fusion of Infrared Images with Dense RGB Reconstruction from Multiple
Views -- with Application to Fire-fighting Robots [1.9420928933791046]
このプロジェクトは、赤外線とRGB画像を統合し、複数のビューから再構成された密集した3D環境モデルを生成する。
得られた3Dマップには、熱とRGBの情報の両方が含まれており、犠牲者と活動的な消防エリアを識別するためのロボットファイアファイアファイアファイティングアプリケーションで使用できる。
論文 参考訳(メタデータ) (2020-07-29T05:19:34Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。