論文の概要: EclipseTouch: Touch Segmentation on Ad Hoc Surfaces using Worn Infrared Shadow Casting
- arxiv url: http://arxiv.org/abs/2509.03430v1
- Date: Wed, 03 Sep 2025 15:59:28 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-04 21:40:46.586787
- Title: EclipseTouch: Touch Segmentation on Ad Hoc Surfaces using Worn Infrared Shadow Casting
- Title(参考訳): EclipseTouch: 赤外線シャドウキャスティングによるアドホック表面のタッチセグメンテーション
- Authors: Vimal Mollyn, Nathan DeVrio, Chris Harrison,
- Abstract要約: そこで本研究では,非構造面上のタッチイベントを検出するために,システム名と呼ばれる新たなヘッドセット統合手法を提案する。
我々は、コンピュータトリガーカメラと1つ以上の赤外線エミッターを組み合わせて、構造化された影を作り、そこから正確なホバリング距離を推定することができる。
本手法は, 表面材料, 相互作用方向, 環境照明など, 様々な条件下でどのように機能するかを論じる。
- 参考スコア(独自算出の注目度): 14.237453119638516
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: The ability to detect touch events on uninstrumented, everyday surfaces has been a long-standing goal for mixed reality systems. Prior work has shown that virtual interfaces bound to physical surfaces offer performance and ergonomic benefits over tapping at interfaces floating in the air. A wide variety of approaches have been previously developed, to which we contribute a new headset-integrated technique called \systemname. We use a combination of a computer-triggered camera and one or more infrared emitters to create structured shadows, from which we can accurately estimate hover distance (mean error of 6.9~mm) and touch contact (98.0\% accuracy). We discuss how our technique works across a range of conditions, including surface material, interaction orientation, and environmental lighting.
- Abstract(参考訳): 不具体的で日常的な表面でタッチイベントを検出する能力は、混合現実システムにとって長年の目標である。
これまでの研究で、仮想インターフェースが物理的表面と結びついていることは、空中に浮かぶインターフェイスをタップするよりも、パフォーマンスと人間工学的な利点をもたらすことが示されていた。
これまでに様々なアプローチが開発されており、新しいヘッドセット統合技術である \systemname が提案されている。
コンピュータトリガーカメラと1つ以上の赤外線エミッターを組み合わせて構成された影を作り、そこから正確なホバリング距離(平均6.9〜mm)とタッチコンタクト(98.0\%)を推定できる。
本手法は, 表面材料, 相互作用方向, 環境照明など, 様々な条件下でどのように機能するかを論じる。
関連論文リスト
- EgoTouch: On-Body Touch Input Using AR/VR Headset Cameras [13.852935460131896]
我々は、RGBカメラのみを用いて、高精度で素手(つまり、ユーザの特別な計測装置がない)の皮膚入力を実証した。
提案手法は, 様々な照明条件において精度が高く, 頑健であることを示す。
これらは、より完全なオンスキンインターフェースをアンロックするために必要な技術的要素だと考えています。
論文 参考訳(メタデータ) (2025-09-01T21:32:30Z) - Snap-it, Tap-it, Splat-it: Tactile-Informed 3D Gaussian Splatting for Reconstructing Challenging Surfaces [34.831730064258494]
本研究では,タッチデータ(局所深度マップ)を多視点視覚データと組み合わせ,表面再構成と新しいビュー合成を実現する新しいアプローチである触覚インフォームド3DGSを提案する。
タッチ位置の透過率を低下させる枠組みを作成することにより,表面の微細化を実現し,均一に滑らかな深度マップを実現する。
我々は、光沢と反射面を有する物体に対して評価を行い、我々のアプローチの有効性を実証する。
論文 参考訳(メタデータ) (2024-03-29T16:30:17Z) - PseudoTouch: Efficiently Imaging the Surface Feel of Objects for Robotic Manipulation [8.997347199266592]
低次元センサ信号に高次元構造情報をリンクするPseudoTouchを提案する。
低次元の視覚触覚埋め込みを学習し、そこから触覚信号を復号する深度パッチを符号化する。
学習したPseudoTouchモデルの有用性を、物体認識と把握安定性予測という2つの下流タスクで実証する。
論文 参考訳(メタデータ) (2024-03-22T10:51:31Z) - Controllable Visual-Tactile Synthesis [28.03469909285511]
一つのスケッチから視覚と触覚の両方の出力を合成する条件生成モデルを開発した。
次に,電気接着型触覚デバイスに高品質な視覚・触覚出力を描画するパイプラインを導入する。
論文 参考訳(メタデータ) (2023-05-04T17:59:51Z) - Recognizing Complex Gestures on Minimalistic Knitted Sensors: Toward
Real-World Interactive Systems [0.13048920509133805]
デジタル編みの容量型アクティブセンサーは、人間の介入はほとんどなく、大規模に製造できる。
本研究は,対話型ジェスチャー認識システムの基礎を構築することにより,そのようなセンサの能力を向上させる。
論文 参考訳(メタデータ) (2023-03-18T04:57:46Z) - Tactile-Filter: Interactive Tactile Perception for Part Mating [54.46221808805662]
人間は触覚と触覚に頼っている。
視覚ベースの触覚センサーは、様々なロボット認識や制御タスクに広く利用されている。
本稿では,視覚に基づく触覚センサを用いた対話的知覚手法を提案する。
論文 参考訳(メタデータ) (2023-03-10T16:27:37Z) - The Gesture Authoring Space: Authoring Customised Hand Gestures for
Grasping Virtual Objects in Immersive Virtual Environments [81.5101473684021]
本研究は、仮想オブジェクトを現実世界のようにつかむことができる、オブジェクト固有のグリップジェスチャーのためのハンドジェスチャーオーサリングツールを提案する。
提示されたソリューションは、ジェスチャー認識にテンプレートマッチングを使用し、カスタムのカスタマイズされた手の動きを設計および作成するために技術的な知識を必要としない。
本研究は,提案手法を用いて作成したジェスチャーが,ユーザによって他のユーザよりも自然な入力モダリティとして認識されていることを示した。
論文 参考訳(メタデータ) (2022-07-03T18:33:33Z) - Elastic Tactile Simulation Towards Tactile-Visual Perception [58.44106915440858]
触覚シミュレーションのための粒子の弾性相互作用(EIP)を提案する。
EIPは、触覚センサを協調粒子群としてモデル化し、接触時の粒子の変形を制御するために弾性特性を適用した。
さらに,触覚データと視覚画像間の情報融合を可能にする触覚知覚ネットワークを提案する。
論文 参考訳(メタデータ) (2021-08-11T03:49:59Z) - RGB2Hands: Real-Time Tracking of 3D Hand Interactions from Monocular RGB
Video [76.86512780916827]
本稿では,1台のRGBカメラによる骨格ポーズのモーションキャプチャと手の表面形状をリアルタイムに計測する手法を提案する。
RGBデータの本質的な深さの曖昧さに対処するために,我々は新しいマルチタスクCNNを提案する。
RGBの片手追跡と3D再構築パイプラインの個々のコンポーネントを実験的に検証した。
論文 参考訳(メタデータ) (2021-06-22T12:53:56Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。