論文の概要: Gaze-based Object Detection in the Wild
- arxiv url: http://arxiv.org/abs/2203.15651v1
- Date: Tue, 29 Mar 2022 15:10:17 GMT
- ステータス: 処理完了
- システム内更新日: 2022-03-30 17:04:48.187321
- Title: Gaze-based Object Detection in the Wild
- Title(参考訳): 野生における迷路型物体検出
- Authors: Daniel Weber, Wolfgang Fuhl, Andreas Zell, Enkelejda Kasneci
- Abstract要約: 人間とロボットのコラボレーションでは、ロボットに新しい未知の物体を教えることが難しい。
視線データから対象物(対象物または対象物なし)を検出し、その境界ボックスパラメータを決定することができるかどうかを検討する。
- 参考スコア(独自算出の注目度): 23.923563888749108
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In human-robot collaboration, one challenging task is to teach a robot new
yet unknown objects. Thereby, gaze can contain valuable information. We
investigate if it is possible to detect objects (object or no object) from gaze
data and determine their bounding box parameters. For this purpose, we explore
different sizes of temporal windows, which serve as a basis for the computation
of heatmaps, i.e., the spatial distribution of the gaze data. Additionally, we
analyze different grid sizes of these heatmaps, and various machine learning
techniques are applied. To generate the data, we conducted a small study with
five subjects who could move freely and thus, turn towards arbitrary objects.
This way, we chose a scenario for our data collection that is as realistic as
possible. Since the subjects move while facing objects, the heatmaps also
contain gaze data trajectories, complicating the detection and parameter
regression.
- Abstract(参考訳): 人間とロボットのコラボレーションでは、ロボットに新しい未知の物体を教えることが難しい。
これにより、視線は貴重な情報を含むことができる。
本研究では,視線データから物体(物体の有無)を検出し,境界ボックスパラメータを決定することができるか検討する。
この目的のために,時間窓の大きさの異なる時間窓を探索し,熱マップ,すなわち視線データの空間分布の計算の基盤となる。
さらに,これらヒートマップのグリッドサイズを解析し,様々な機械学習手法を適用した。
このデータを生成するために,自由移動が可能な5名の被験者を対象に,任意の対象へ向けて小さな調査を行った。
このようにして、私たちは可能な限り現実的なデータ収集のシナリオを選択しました。
被験者は対象を向いたまま移動するため、ヒートマップには視線データトラジェクトリが含まれており、検出とパラメータ回帰が複雑になる。
関連論文リスト
- SeMoLi: What Moves Together Belongs Together [51.72754014130369]
動作手がかりに基づく半教師付き物体検出に挑戦する。
近年,移動物体の擬似ラベルインスタンスに対して,動きに基づくクラスタリング手法が適用可能であることが示唆された。
我々は、このアプローチを再考し、オブジェクト検出とモーションインスパイアされた擬似ラベルの両方が、データ駆動方式で取り組めることを示唆する。
論文 参考訳(メタデータ) (2024-02-29T18:54:53Z) - ICGNet: A Unified Approach for Instance-Centric Grasping [42.92991092305974]
オブジェクト中心の把握のためのエンドツーエンドアーキテクチャを導入する。
提案手法の有効性を,合成データセット上での最先端手法に対して広範囲に評価することにより示す。
論文 参考訳(メタデータ) (2024-01-18T12:41:41Z) - Physics-Based Rigid Body Object Tracking and Friction Filtering From RGB-D Videos [8.012771454339353]
本稿では,RGB-D画像から剛体物体を3次元追跡し,物体の物理的特性を推定する手法を提案する。
実世界のデータセット上で、我々のアプローチを実証し、評価する。
論文 参考訳(メタデータ) (2023-09-27T14:46:01Z) - Spatial Reasoning for Few-Shot Object Detection [21.3564383157159]
本稿では,空間的推論フレームワークを提案する。
グラフ畳み込みネットワークをRoIとその関連性はそれぞれノードとエッジとして定義する。
提案手法は最先端の手法を著しく上回り, 広範囲なアブレーション研究により有効性を検証する。
論文 参考訳(メタデータ) (2022-11-02T12:38:08Z) - MetaGraspNet: A Large-Scale Benchmark Dataset for Vision-driven Robotic
Grasping via Physics-based Metaverse Synthesis [78.26022688167133]
本稿では,物理に基づくメタバース合成による視覚駆動型ロボットグルーピングのための大規模ベンチマークデータセットを提案する。
提案するデータセットには,10万の画像と25種類のオブジェクトが含まれている。
また,オブジェクト検出とセグメンテーション性能を評価するためのデータセットとともに,新しいレイアウト重み付け性能指標を提案する。
論文 参考訳(メタデータ) (2021-12-29T17:23:24Z) - Time Varying Particle Data Feature Extraction and Tracking with Neural
Networks [20.825102707056647]
我々は, 特徴抽出と追跡を支援するために, 科学的粒子データのための特徴表現を作成するために, 深層学習アプローチを採用する。
本研究では,局所近傍における空間的位置と物理的属性の関係を表現するために,潜在ベクトルを生成する深層学習モデルを用いる。
高速な特徴追跡を実現するために,特徴空間に平均シフト追跡アルゴリズムを適用した。
論文 参考訳(メタデータ) (2021-05-27T15:38:14Z) - REGRAD: A Large-Scale Relational Grasp Dataset for Safe and
Object-Specific Robotic Grasping in Clutter [52.117388513480435]
本稿では,オブジェクト間の関係のモデル化を継続するregradという新しいデータセットを提案する。
データセットは2D画像と3Dポイントクラウドの両方で収集されます。
ユーザは、好きなだけ多くのデータを生成するために、自由に独自のオブジェクトモデルをインポートできる。
論文 参考訳(メタデータ) (2021-04-29T05:31:21Z) - Data Augmentation for Object Detection via Differentiable Neural
Rendering [71.00447761415388]
注釈付きデータが乏しい場合、堅牢なオブジェクト検出器を訓練することは困難です。
この問題に対処する既存のアプローチには、ラベル付きデータからラベル付きデータを補間する半教師付き学習が含まれる。
オブジェクト検出のためのオフラインデータ拡張手法を導入し、新しいビューでトレーニングデータを意味的に補間する。
論文 参考訳(メタデータ) (2021-03-04T06:31:06Z) - Where2Act: From Pixels to Actions for Articulated 3D Objects [54.19638599501286]
可動部を有する関節物体の押出しや引抜き等の基本動作に関連する高度に局所化された動作可能な情報を抽出する。
シミュレーションでネットワークをトレーニングできるオンラインデータサンプリング戦略を備えた学習から対話までのフレームワークを提案します。
私たちの学習モデルは、現実世界のデータにも転送します。
論文 参考訳(メタデータ) (2021-01-07T18:56:38Z) - DecAug: Augmenting HOI Detection via Decomposition [54.65572599920679]
現在のアルゴリズムでは、データセット内のトレーニングサンプルやカテゴリの不均衡が不足している。
本稿では,HOI検出のためのDECAugと呼ばれる効率的かつ効率的なデータ拡張手法を提案する。
実験の結果,V-COCOおよびHICODETデータセットの3.3mAPと1.6mAPの改善が得られた。
論文 参考訳(メタデータ) (2020-10-02T13:59:05Z) - Extending Maps with Semantic and Contextual Object Information for Robot
Navigation: a Learning-Based Framework using Visual and Depth Cues [12.984393386954219]
本稿では,RGB-D画像からのセマンティック情報を用いて,シーンのメートル法表現を付加する問題に対処する。
オブジェクトレベルの情報を持つ環境の地図表現を拡張化するための完全なフレームワークを提案する。
論文 参考訳(メタデータ) (2020-03-13T15:05:23Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。