論文の概要: Assessing the Acceptance of a Mid-Air Gesture Syntax for Smart Space Interaction: An Empirical Study
- arxiv url: http://arxiv.org/abs/2501.04464v1
- Date: Wed, 08 Jan 2025 12:37:31 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-01-09 14:56:18.090325
- Title: Assessing the Acceptance of a Mid-Air Gesture Syntax for Smart Space Interaction: An Empirical Study
- Title(参考訳): スマートスペースインタラクションのための中空ジェスチャ構文の受容性評価 : 実証的研究
- Authors: Ana M. Bernardos, Xian Wang, Luca Bergesio, Juan A. Besada, José R. Casar,
- Abstract要約: 本稿では、位置認識型空中ジェスチャーに基づくコマンド三重項構文を用いて、スマートスペースと対話する方法について検討する。
人間の言語にインスパイアされたこの構文は、命令型構造を持つボクティヴケースとして構築されている。
トレーニング可能なマルチデバイスジェスチャー認識層に依存するインタプリタは、ペア/トリップレット構文のデコードを可能にする。
- 参考スコア(独自算出の注目度): 2.570462577971113
- License:
- Abstract: This article explores the use of a location-aware mid-air gesture-based command triplet syntax to interact with a smart space. The syntax, inspired by human language, is built as a vocative case with an imperative structure. In a sentence like 'Light, please switch on', the object being activated is invoked via making a gesture that mimics its initial letter/acronym (vocative, coincident with the sentence's elliptical subject). A geometrical or directional gesture then identifies the action (imperative verb) and may include an object feature or a second object with which to network (complement), which also represented by the initial or acronym letter. Technically, an interpreter relying on a trainable multidevice gesture recognition layer makes the pair/triplet syntax decoding possible. The recognition layer works on acceleration and position input signals from graspable (smartphone) and free-hand devices (smartwatch and external depth cameras), as well as a specific compiler. On a specific deployment at a Living Lab facility, the syntax has been instantiated via the use of a lexicon derived from English (with respect to the initial letters and acronyms). A within-subject analysis with twelve users has enabled the analysis of the syntax acceptance (in terms of usability, gesture agreement for actions over objects, and social acceptance) and technology preference of the gesture syntax within its three device implementations (graspable, wearable, and device-free ones). Participants express consensus regarding the simplicity of learning the syntax and its potential effectiveness in managing smart resources. Socially, participants favoured the Watch for outdoor activities and the Phone for home and work settings, underscoring the importance of social context in technology design. The Phone emerged as the preferred option for gesture recognition due to its efficiency and familiarity.
- Abstract(参考訳): 本稿では、位置認識型空中ジェスチャーに基づくコマンド三重項構文を用いて、スマートスペースと対話する方法について検討する。
人間の言語にインスパイアされたこの構文は、命令型構造を持つボクティヴケースとして構築されている。
Light, please switch on"(ライト, スイッチオン)のような文では、アクティベートされるオブジェクトは、最初の文字/アクロニムを模倣するジェスチャー(文の楕円体と一致する)によって呼び出される。
幾何学的または方向的なジェスチャーは、アクション(imperative verb)を識別し、初期文字または頭字語文字で表されるオブジェクトの特徴または2番目のオブジェクトをネットワーク(補完)に含める。
技術的には、トレーニング可能なマルチデバイスジェスチャー認識層に依存するインタプリタは、ペア/トリップレット構文のデコードを可能にする。
認識層は、特定のコンパイラと同様に、把握可能な(スマートフォン)および自由ハンドデバイス(スマートウォッチおよび外部奥行きカメラ)からの加速度と位置入力信号で動作する。
リビングラボの施設での特定の配置において、構文は英語から派生した語彙(初期文字と頭字語について)を使用してインスタンス化されている。
12名のユーザによるオブジェクト内分析により、構文の受け入れ(ユーザビリティ、オブジェクト上のアクションに対するジェスチャーの合意、社会的受け入れ)と、3つのデバイス実装(グラパブル、ウェアラブル、デバイスフリー)におけるジェスチャ構文の技術的嗜好の分析が可能になった。
参加者は、構文の学習の単純さと、スマートリソースの管理における潜在的有効性について合意を表明する。
社会的には、参加者は屋外活動のためのWatchと家庭や職場環境のための電話を好み、技術デザインにおける社会的文脈の重要性を強調した。
iPhoneは、その効率性と親しみやすさのためにジェスチャー認識の選択肢として好まれました。
関連論文リスト
- ConvoFusion: Multi-Modal Conversational Diffusion for Co-Speech Gesture Synthesis [50.69464138626748]
マルチモーダルなジェスチャー合成のための拡散に基づくアプローチであるConvoFusionを提案する。
提案手法は,条件の異なる条件が与える影響をユーザが調節できる2つの誘導目標を提案する。
本手法は,モノログジェスチャを生成するか,会話ジェスチャを生成するかの訓練が可能である。
論文 参考訳(メタデータ) (2024-03-26T17:59:52Z) - GestureGPT: Toward Zero-Shot Free-Form Hand Gesture Understanding with Large Language Model Agents [35.48323584634582]
本稿では,人間のジェスチャー理解を模倣する自由形式の手ジェスチャー理解フレームワークであるGestureGPTを紹介する。
我々のフレームワークは、複数の大規模言語モデルエージェントを利用してジェスチャーや文脈情報を管理し、合成する。
私たちは、スマートホームコントロールとオンラインビデオストリーミングという2つの現実シナリオの下で、私たちのフレームワークをオフラインで検証しました。
論文 参考訳(メタデータ) (2023-10-19T15:17:34Z) - Language-Oriented Communication with Semantic Coding and Knowledge
Distillation for Text-to-Image Generation [53.97155730116369]
我々は言語指向意味コミュニケーション(LSC)の新しい枠組みを提唱した。
LSCでは、機械は人間の言語メッセージを使って通信し、SC効率のために自然言語処理(NLP)技術を用いて解釈および操作することができる。
1) テキストプロンプトをキーヘッドワードに圧縮するセマンティック・ソース・コーディング(SSC)、2) セマンティック・チャネル・コーディング(SCC)、2) セマンティック・チャネル・コーディング(SCC)、3) セマンティック・ナレッジ・蒸留(SKD)、3) リスナーの言語学習を通じてリスナーに適応したプロンプトを生成するセマンティック・ナレッジ・蒸留(SKD)の3つの革新的なアルゴリズムを導入する。
論文 参考訳(メタデータ) (2023-09-20T08:19:05Z) - Opening the Vocabulary of Egocentric Actions [42.94865322371628]
本稿では,新しいオープン語彙行動認識タスクを提案する。
訓練中に観察される動詞と対象のセットが与えられた場合、目的は、動詞を、目に見えるものや新しいものを含む行動のオープンな語彙に一般化することである。
EPIC-KITCHENS-100およびアセンブリ101データセット上で,オープンな語彙ベンチマークを作成する。
論文 参考訳(メタデータ) (2023-08-22T15:08:02Z) - AmadeusGPT: a natural language interface for interactive animal
behavioral analysis [65.55906175884748]
動作の自然言語記述をマシン実行可能なコードに変換する自然言語インタフェースであるAmadeusGPTを紹介する。
MABE 2022の動作課題タスクで最先端のパフォーマンスを実現できることを示す。
アマデウスGPTは、深い生物学的知識、大規模言語モデル、そしてコアコンピュータビジョンモジュールをより自然に知的なシステムに統合する新しい方法を提示している。
論文 参考訳(メタデータ) (2023-07-10T19:15:17Z) - Embodied Concept Learner: Self-supervised Learning of Concepts and
Mapping through Instruction Following [101.55727845195969]
本研究では,対話型3D環境におけるEmbodied Learner Concept (ECL)を提案する。
ロボットエージェントは視覚概念をグラウンディングし、セマンティックマップを構築し、タスクを完了させるためにアクションを計画することができる。
ECLは完全に透明で、長期計画において段階的に解釈可能である。
論文 参考訳(メタデータ) (2023-04-07T17:59:34Z) - Implementation Of Tiny Machine Learning Models On Arduino 33 BLE For
Gesture And Speech Recognition [6.8324958655038195]
手ジェスチャー認識の実装において、TinyMLモデルは、手ジェスチャー認識のためのEdgeImpulseフレームワークからトレーニングされ、デプロイされる。
音声認識の実装において、TinyMLモデルは、音声認識のためのEdgeImpulseフレームワークから訓練され、デプロイされる。
Arduino Nano 33 BLEデバイスにはマイクが内蔵されている。
論文 参考訳(メタデータ) (2022-07-23T10:53:26Z) - COBE: Contextualized Object Embeddings from Narrated Instructional Video [52.73710465010274]
そこで本稿では,教師ビデオの自動書き起こしからコンテキスト適応型オブジェクト埋め込みを学習するための新しいフレームワークを提案する。
言語の意味的・構成的構造を視覚的検知器を訓練し,オブジェクトとその関連するナレーションの文脈的単語埋め込みを予測する。
実験の結果,検出器は多種多様なコンテキストオブジェクト情報を予測し,少数ショットおよびゼロショット学習の設定において極めて有効であることがわかった。
論文 参考訳(メタデータ) (2020-07-14T19:04:08Z) - Egocentric Action Recognition by Video Attention and Temporal Context [83.57475598382146]
我々は,Samsung AI Centre Cambridge を CVPR 2020 EPIC-Kitchens Action Recognition Challenge に提出する。
この課題では、入力トリミングされたビデオクリップが与えられた1つの動詞と名詞のクラスラベルを同時に予測する問題として、行動認識が提案される。
我々のソリューションは、オブジェクト固有の推論や余分なトレーニングデータを用いることなく、課題メトリクスの強力なパフォーマンスを実現する。
論文 参考訳(メタデータ) (2020-07-03T18:00:32Z) - Reinforcement learning of minimalist grammars [0.5862282909017474]
最先端の言語技術は、関連するキーワードに対して音響解析された音声信号をスキャンする。
単語はセマンティックスロットに挿入され、ユーザの意図を解釈する。
メンタルレキシコンは、ユーザとのインタラクション中に認知エージェントによって取得されなければならない。
論文 参考訳(メタデータ) (2020-04-30T14:25:58Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。