論文の概要: FR-GESTURE: An RGBD Dataset For Gesture-based Human-Robot Interaction In First Responder Operations
- arxiv url: http://arxiv.org/abs/2602.17573v1
- Date: Thu, 19 Feb 2026 17:31:08 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-20 15:21:29.23934
- Title: FR-GESTURE: An RGBD Dataset For Gesture-based Human-Robot Interaction In First Responder Operations
- Title(参考訳): FR-GESTURE:最初のレスポンダ操作におけるジェスチャーに基づく人間とロボットのインタラクションのためのRGBDデータセット
- Authors: Konstantinos Foteinos, Georgios Angelidis, Aggelos Psiris, Vasileios Argyriou, Panagiotis Sarigiannidis, Georgios Th. Papadopoulos,
- Abstract要約: 第一応答器(FR)によるジェスチャーに基づくUGV制御のためのデータセットを提案する。
我々は、FRや戦術的手信号で使われている既存のジェスチャーからインスピレーションを得て、12のコマンドのセットを導入する。
我々の知る限りでは、このデータセットはFRによるジェスチャーに基づくUGV誘導を特に意図した最初のデータセットである。
- 参考スコア(独自算出の注目度): 4.641787020568221
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The ever increasing intensity and number of disasters make even more difficult the work of First Responders (FRs). Artificial intelligence and robotics solutions could facilitate their operations, compensating these difficulties. To this end, we propose a dataset for gesture-based UGV control by FRs, introducing a set of 12 commands, drawing inspiration from existing gestures used by FRs and tactical hand signals and refined after incorporating feedback from experienced FRs. Then we proceed with the data collection itself, resulting in 3312 RGBD pairs captured from 2 viewpoints and 7 distances. To the best of our knowledge, this is the first dataset especially intended for gesture-based UGV guidance by FRs. Finally we define evaluation protocols for our RGBD dataset, termed FR-GESTURE, and we perform baseline experiments, which are put forward for improvement. We have made data publicly available to promote future research on the domain: https://doi.org/10.5281/zenodo.18131333.
- Abstract(参考訳): 絶え間なく激しさと災害の数が増えると、ファースト・レスポンダ(FR)の作業はさらに困難になる。
人工知能とロボティクスのソリューションは、これらの困難を補うことによって、彼らの操作を促進することができる。
そこで本研究では、FRによるジェスチャーに基づくUGV制御のためのデータセットを提案し、12コマンドのセットを導入し、FRが使用する既存のジェスチャーと戦術的手信号からインスピレーションを得て、経験豊富なFRからのフィードバックを取り入れて洗練する。
そして、データ収集自体を進め、2つの視点と7つの距離から3312のRGBDペアをキャプチャした。
我々の知る限りでは、このデータセットはFRによるジェスチャーに基づくUGV誘導を特に意図した最初のデータセットである。
最後に, FR-GESTUREと呼ばれるRGBDデータセットの評価プロトコルを定義し, ベースライン実験を行い, 改良を推し進める。
我々は、このドメインに関する将来の研究を促進するために、 https://doi.org/10.5281/zenodo.18131333. を公開しました。
関連論文リスト
- When Person Re-Identification Meets Event Camera: A Benchmark Dataset and An Attribute-guided Re-Identification Framework [48.16640931718528]
本稿では,大規模なRGB-eventベースの人物ReIDデータセットであるEvReIDを紹介する。
データセットには118,988枚の画像ペアが含まれ、1200人の歩行者の身元をカバーし、複数の季節、シーン、照明条件のデータを収集している。
また、15の最先端のReIDアルゴリズムを評価し、データとベンチマークの両方の観点から将来の研究の基盤を構築します。
論文 参考訳(メタデータ) (2025-07-18T05:04:59Z) - Maximizing Alignment with Minimal Feedback: Efficiently Learning Rewards for Visuomotor Robot Policy Alignment [73.14105098897696]
本研究では,人間の嗜好フィードバックをはるかに少なくして視覚的報酬を学習するための表現適応型選好学習(RAPL)を提案する。
RAPLは、エンドユーザの視覚表現に合わせて微調整された事前学習された視覚エンコーダに焦点を合わせ、特徴マッチングによって密集した視覚報酬を構築する。
RAPLは人間の嗜好に沿った報酬を学習し、より効率的に嗜好データを使用し、ロボットの具体化を一般化できることを示す。
論文 参考訳(メタデータ) (2024-12-06T08:04:02Z) - A Cross-Dataset Study for Text-based 3D Human Motion Retrieval [13.673377919543228]
すべてのデータセットに対して統一的なSMPLボディフォーマットを採用しており、1つのデータセットでトレーニングを実行し、もう1つのデータセットでテストし、データセットの組み合わせでトレーニングすることができます。
以上の結果から,HumanML3D,KIT Motion-Language,BABELなどの標準テキストモーションベンチマークにはデータセットバイアスが存在することが示唆された。
論文 参考訳(メタデータ) (2024-05-27T07:58:20Z) - Retrieval-based Disentangled Representation Learning with Natural
Language Supervision [61.75109410513864]
本稿では,VDR(Vocabulary Disentangled Retrieval)を提案する。
提案手法では,両エンコーダモデルを用いて語彙空間におけるデータと自然言語の両方を表現する。
論文 参考訳(メタデータ) (2022-12-15T10:20:42Z) - Cluster-level pseudo-labelling for source-free cross-domain facial
expression recognition [94.56304526014875]
表情認識のためのSFUDA法を提案する。
本手法は,自己教師付き事前学習を利用して,対象データから優れた特徴表現を学習する。
提案手法の有効性を4つの適応方式で検証し,FERに適用した場合,既存のSFUDA法より一貫して優れていることを示す。
論文 参考訳(メタデータ) (2022-10-11T08:24:50Z) - Learning-based Point Cloud Registration for 6D Object Pose Estimation in
the Real World [55.7340077183072]
我々は、ポイントクラウドデータからオブジェクトの6Dポーズを推定するタスクに取り組む。
この課題に対処する最近の学習ベースのアプローチは、合成データセットにおいて大きな成功を収めている。
これらの障害の原因を分析し、ソースとターゲットポイントの雲の特徴分布の違いに遡る。
論文 参考訳(メタデータ) (2022-03-29T07:55:04Z) - LiDARCap: Long-range Marker-less 3D Human Motion Capture with LiDAR
Point Clouds [58.402752909624716]
既存のモーションキャプチャデータセットはほとんどが短距離であり、まだ長距離アプリケーションのニーズに合わない。
我々は,この制限を克服するために,LiDARがより長い範囲で捉えた新しい人間のモーションキャプチャーデータセットLiDARHuman26Mを提案する。
我々のデータセットには、IMUシステムによって取得された人間の動きと同期RGB画像も含まれている。
論文 参考訳(メタデータ) (2022-03-28T12:52:45Z) - Unsupervised Domain Adaptation through Inter-modal Rotation for RGB-D
Object Recognition [31.24587317555857]
本稿では,RGBと深度画像のモーダル間関係を利用して,合成領域から実領域へのシフトを低減する新しいRGB-D DA法を提案する。
提案手法は,主認識タスクに加えて,RGBと深度画像の相対的回転を予測するプリテキストタスクである畳み込みニューラルネットワークを訓練することで解決する。
論文 参考訳(メタデータ) (2020-04-21T13:53:55Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。