論文の概要: Practical and Rich User Digitization
- arxiv url: http://arxiv.org/abs/2403.00153v1
- Date: Thu, 29 Feb 2024 22:09:27 GMT
- ステータス: 処理完了
- システム内更新日: 2024-03-05 18:54:33.903952
- Title: Practical and Rich User Digitization
- Title(参考訳): 実用的でリッチなユーザディジタイゼーション
- Authors: Karan Ahuja
- Abstract要約: ユーザのデジタル化により、コンピュータはユーザーの行動、ポーズ、ルーチン、行動などを深く理解することができる。
今日の消費者向けデバイスは、歩数、心拍数、ランニングやサイクリングのような少数の人間の活動など、ユーザの粗いデジタル表現を提供する。
私の研究は、このトレンドを打破し、ユーザーデジタル化の忠実さを高めて、新しい強力なコンピューティング体験を作り出すセンサーシステムを開発することを目的としています。
- 参考スコア(独自算出の注目度): 7.021516368759671
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: A long-standing vision in computer science has been to evolve computing
devices into proactive assistants that enhance our productivity, health and
wellness, and many other facets of our lives. User digitization is crucial in
achieving this vision as it allows computers to intimately understand their
users, capturing activity, pose, routine, and behavior. Today's consumer
devices - like smartphones and smartwatches provide a glimpse of this
potential, offering coarse digital representations of users with metrics such
as step count, heart rate, and a handful of human activities like running and
biking. Even these very low-dimensional representations are already bringing
value to millions of people's lives, but there is significant potential for
improvement. On the other end, professional, high-fidelity comprehensive user
digitization systems exist. For example, motion capture suits and multi-camera
rigs that digitize our full body and appearance, and scanning machines such as
MRI capture our detailed anatomy. However, these carry significant user
practicality burdens, such as financial, privacy, ergonomic, aesthetic, and
instrumentation considerations, that preclude consumer use. In general, the
higher the fidelity of capture, the lower the user's practicality. Most
conventional approaches strike a balance between user practicality and
digitization fidelity.
My research aims to break this trend, developing sensing systems that
increase user digitization fidelity to create new and powerful computing
experiences while retaining or even improving user practicality and
accessibility, allowing such technologies to have a societal impact. Armed with
such knowledge, our future devices could offer longitudinal health tracking,
more productive work environments, full body avatars in extended reality, and
embodied telepresence experiences, to name just a few domains.
- Abstract(参考訳): コンピュータ科学における長年のビジョンは、コンピュータデバイスをプロアクティブなアシスタントへと進化させ、私たちの生産性、健康、健康、そして私たちの生活の多くの側面を強化することである。
ユーザのデジタル化は、コンピュータがユーザーを深く理解し、活動、ポーズ、ルーチン、行動を把握することができるため、このビジョンを達成する上で不可欠である。
今日の消費者向けデバイス(スマートフォンやスマートウォッチなど)は、この可能性を垣間見ることができ、歩数、心拍数、ランニングやサイクリングのような少数の人間の活動など、ユーザーの粗いデジタル表現を提供する。
これらの非常に低次元な表現でさえ、何百万もの人々の生活にすでに価値をもたらしています。
一方、プロフェッショナルで高忠実な包括的ユーザデジタル化システムが存在する。
例えば、モーションキャプチャースーツや、全身と外観をデジタル化するマルチカメラリグ、MRIなどのスキャンマシンは、私たちの詳細な解剖を捉えます。
しかし、これらには、消費者の使用を妨げる財務、プライバシー、人間工学、美学、計装など、ユーザーの実用上の大きな負担が伴う。
一般的に、キャプチャの忠実度が高いほど、ユーザの実用性は低くなります。
ほとんどの従来の手法は、ユーザ実践性とデジタル化の忠実さのバランスをとる。
私の研究は、このトレンドを打破することを目指しており、ユーザのデジタル化の精度を高め、新しい強力なコンピューティング体験を作りつつ、ユーザの実用性とアクセシビリティを保ちつつ、そのような技術が社会的な影響を与えることができるセンシングシステムを開発しています。
このような知識を活かして、私たちの将来のデバイスは、縦断的な健康トラッキング、より生産的な労働環境、拡張現実における全身アバター、そして具体化されたテレプレゼンス体験を提供するだろう。
関連論文リスト
- Digitizing Touch with an Artificial Multimodal Fingertip [51.7029315337739]
人間とロボットはどちらも、周囲の環境を知覚し、相互作用するためにタッチを使うことの恩恵を受ける。
ここでは、タッチのデジタル化を改善するための概念的および技術革新について述べる。
これらの進歩は、高度なセンシング機能を備えた人工指型センサーに具現化されている。
論文 参考訳(メタデータ) (2024-11-04T18:38:50Z) - Neural feels with neural fields: Visuo-tactile perception for in-hand
manipulation [57.60490773016364]
マルチフィンガーハンドの視覚と触覚を組み合わせることで,手動操作時の物体の姿勢と形状を推定する。
提案手法であるNeuralFeelsは,ニューラルネットワークをオンラインで学習することでオブジェクトの形状を符号化し,ポーズグラフ問題を最適化して共同で追跡する。
私たちの結果は、タッチが少なくとも、洗練され、そして最も最良のものは、手動操作中に視覚的推定を曖昧にすることを示しています。
論文 参考訳(メタデータ) (2023-12-20T22:36:37Z) - See, Hear, and Feel: Smart Sensory Fusion for Robotic Manipulation [49.925499720323806]
視覚的、聴覚的、触覚的知覚が、ロボットが複雑な操作タスクを解くのにどのように役立つかを研究する。
私たちは、カメラで見たり、コンタクトマイクで聞いたり、視覚ベースの触覚センサーで感じるロボットシステムを構築しました。
論文 参考訳(メタデータ) (2022-12-07T18:55:53Z) - Cross-Reality Re-Rendering: Manipulating between Digital and Physical
Realities [2.538209532048867]
本研究では,ユーザの身体的現実とデジタル現実の両方の知覚を操作できるシステムの設計について検討する。
ユーザは、両方の現実からビュー履歴を検査し、リアルタイムに相互運用可能な介入を生成することができる。
論文 参考訳(メタデータ) (2022-11-15T09:31:52Z) - Force-Aware Interface via Electromyography for Natural VR/AR Interaction [69.1332992637271]
我々はVR/ARにおける自然的および直感的な力入力のための学習ベースのニューラルネットワークを設計する。
我々は,3.3%の平均誤差で指の力量をリアルタイムでデコードし,キャリブレーションの少ない新規ユーザに一般化できることを実証した。
今後のVR/ARにおける、より現実的な物理性に向けた研究を進めるために、我々の研究成果を期待する。
論文 参考訳(メタデータ) (2022-10-03T20:51:25Z) - Towards Everyday Virtual Reality through Eye Tracking [1.2691047660244335]
視線追跡は、人間の行動をリアルタイムで非侵襲的に評価する新しい技術である。
日常的なバーチャルリアリティーへの重要な科学的推進は、3つの主要な研究貢献によって完了した。
論文 参考訳(メタデータ) (2022-03-29T16:09:37Z) - Human Activity Recognition models using Limited Consumer Device Sensors
and Machine Learning [0.0]
ヒトの活動認識は、日常生活や医療環境における応用の増加とともに人気が高まっている。
本稿では,スマートフォンやスマートウォッチのセンサデータを用いた訓練に限定した各種モデルの発見について述べる。
結果は、スマートフォンとスマートウォッチのみから収集された限られたセンサーデータと、従来の機械学習の概念とアルゴリズムとを厳格に併用したモデルの可能性を示している。
論文 参考訳(メタデータ) (2022-01-21T06:54:05Z) - Classifying Human Activities with Inertial Sensors: A Machine Learning
Approach [0.0]
HAR(Human Activity Recognition)は、現在進行中の研究課題である。
医療サポート、スポーツ、フィットネス、ソーシャルネットワーキング、ヒューマン・コンピュータ・インタフェース、シニア・ケア、エンターテイメント、監視などの分野に応用されている。
スマートフォンの慣性センサデータを用いて,人間活動認識のための機械学習と深層学習のアプローチを検討した。
論文 参考訳(メタデータ) (2021-11-09T08:17:33Z) - Facial Masks and Soft-Biometrics: Leveraging Face Recognition CNNs for
Age and Gender Prediction on Mobile Ocular Images [53.913598771836924]
スマートフォンで撮影した自撮り眼画像を使って年齢や性別を推定します。
ImageNet Challengeの文脈で提案された2つの既存の軽量CNNを適応させる。
一部のネットワークは顔認識のためにさらにトレーニングされており、非常に大規模なトレーニングデータベースが利用可能です。
論文 参考訳(メタデータ) (2021-03-31T01:48:29Z) - Hand tracking for immersive virtual reality: opportunities and
challenges [0.0]
ハンドトラッキングは、近年の没入型バーチャルリアリティヘッドマウントディスプレイの不可欠な機能となっている。
没入型バーチャルリアリティーに価値を加えるためのハンドトラッキングの主な可能性として私が見ているものの概要を述べます。
本論文は,次世代の手追跡技術と仮想現実技術の発展に向けての分野におけるベストプラクティス開発のためのロードマップとして機能することが期待されている。
論文 参考訳(メタデータ) (2021-03-27T09:28:47Z) - AEGIS: A real-time multimodal augmented reality computer vision based
system to assist facial expression recognition for individuals with autism
spectrum disorder [93.0013343535411]
本稿では,コンピュータビジョンと深部畳み込みニューラルネットワーク(CNN)を組み合わせたマルチモーダル拡張現実(AR)システムの開発について述べる。
提案システムはAIGISと呼ばれ,タブレット,スマートフォン,ビデオ会議システム,スマートグラスなど,さまざまなユーザデバイスにデプロイ可能な支援技術である。
我々は空間情報と時間情報の両方を活用して正確な表現予測を行い、それを対応する可視化に変換し、元のビデオフレーム上に描画する。
論文 参考訳(メタデータ) (2020-10-22T17:20:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。