論文の概要: ObjectFinder: Open-Vocabulary Assistive System for Interactive Object Search by Blind People
- arxiv url: http://arxiv.org/abs/2412.03118v1
- Date: Wed, 04 Dec 2024 08:38:45 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-12-05 15:07:11.392695
- Title: ObjectFinder: Open-Vocabulary Assistive System for Interactive Object Search by Blind People
- Title(参考訳): ObjectFinder: 盲人による対話型オブジェクト検索のためのオープン語彙支援システム
- Authors: Ruiping Liu, Jiaming Zhang, Angela Schön, Karin Müller, Junwei Zheng, Kailun Yang, Kathrin Gerling, Rainer Stiefelhagen,
- Abstract要約: ObjectFinderはオープンな語彙で対話的なオブジェクト検索のプロトタイプです。
オブジェクト検出とシーン記述とナビゲーションを組み合わせる。
対象探索における課題をよりよく理解するために,ニーズ充足型インタビューを行った。
- 参考スコア(独自算出の注目度): 39.57767207961938
- License:
- Abstract: Assistive technology can be leveraged by blind people when searching for objects in their daily lives. We created ObjectFinder, an open-vocabulary interactive object-search prototype, which combines object detection with scene description and navigation. It enables blind persons to detect and navigate to objects of their choice. Our approach used co-design for the development of the prototype. We further conducted need-finding interviews to better understand challenges in object search, followed by a study with the ObjectFinder prototype in a laboratory setting simulating a living room and an office, with eight blind users. Additionally, we compared the prototype with BeMyEyes and Lookout for object search. We found that most participants felt more independent with ObjectFinder and preferred it over the baselines when deployed on more efficient hardware, as it enhances mental mapping and allows for active target definition. Moreover, we identified factors for future directions for the development of object-search systems.
- Abstract(参考訳): 補助技術は、視覚障害者が日常生活で物を探す際に活用することができる。
我々は、オブジェクト検出とシーン記述とナビゲーションを組み合わせたオープン語彙対話型オブジェクト検索プロトタイプであるObjectFinderを開発した。
視覚障害者は自分の選択した物体を検知し、ナビゲートすることができる。
提案手法はプロトタイプの開発に共同設計を用いた。
さらに,対象探索の課題をよりよく理解するために,ニーズフィニッシュなインタビューを実施し,さらに8人の視覚障害者を対象に,リビングルームとオフィスを模擬した実験室におけるObjectFinderプロトタイプを用いた調査を行った。
さらに、プロトタイプをオブジェクト検索のBeMyEyesやLookoutと比較しました。
その結果、ほとんどの参加者はObjectFinderと独立感があり、メンタルマッピングを強化し、アクティブなターゲット定義を可能にするため、より効率的なハードウェアにデプロイする際のベースラインよりもそれを好むことがわかった。
さらに,対象探索システムの開発に向けた今後の方向性の要因を明らかにした。
関連論文リスト
- V3Det Challenge 2024 on Vast Vocabulary and Open Vocabulary Object Detection: Methods and Results [142.5704093410454]
V3Det Challenge 2024は、オブジェクト検出研究の境界を推し進めることを目的としている。
Vast Vocabulary Object DetectionとOpen Vocabulary Object Detectionの2つのトラックで構成されている。
我々は,広い語彙とオープン語彙のオブジェクト検出において,今後の研究の方向性を刺激することを目指している。
論文 参考訳(メタデータ) (2024-06-17T16:58:51Z) - Semantic-Based Active Perception for Humanoid Visual Tasks with Foveal Sensors [49.99728312519117]
この研究の目的は、最近の意味に基づくアクティブな知覚モデルが、人間が定期的に行う視覚的なタスクをいかに正確に達成できるかを確立することである。
このモデルは、現在のオブジェクト検出器が多数のオブジェクトクラスをローカライズし、分類し、複数の固定にまたがるシーンのセマンティック記述を更新する能力を利用する。
シーン探索の課題では、セマンティック・ベースの手法は従来のサリエンシ・ベース・モデルよりも優れた性能を示す。
論文 参考訳(メタデータ) (2024-04-16T18:15:57Z) - CoTDet: Affordance Knowledge Prompting for Task Driven Object Detection [42.2847114428716]
タスク駆動オブジェクト検出は、イメージ内のタスクを提供するのに適したオブジェクトインスタンスを検出することを目的としている。
その課題は、従来のオブジェクト検出のためのクローズドなオブジェクト語彙に制限されるほど多様すぎるタスクのために利用できるオブジェクトカテゴリにある。
本稿では,オブジェクトカテゴリではなく,異なるオブジェクトが同じタスクを達成できる共通属性について検討する。
論文 参考訳(メタデータ) (2023-09-03T06:18:39Z) - DetGPT: Detect What You Need via Reasoning [33.00345609506097]
我々は、推論に基づくオブジェクト検出と呼ばれる、オブジェクト検出のための新しいパラダイムを導入する。
特定のオブジェクト名に依存する従来のオブジェクト検出方法とは異なり,本手法では自然言語命令を用いてシステムと対話することが可能である。
提案手法はDetGPTと呼ばれ,最先端のマルチモーダルモデルとオープンボキャブラリオブジェクト検出器を利用する。
論文 参考訳(メタデータ) (2023-05-23T15:37:28Z) - Discovering a Variety of Objects in Spatio-Temporal Human-Object
Interactions [45.92485321148352]
毎日のHOIでは、人間が掃除中に何十もの家庭用品を持って触れるなど、さまざまな物と対話することが多い。
51のインタラクションと1000以上のオブジェクトを含むDIO(Discoveringed Objects)。
ST-HOI学習タスクは、視覚システムが人間のアクターを追跡し、相互作用を検出し、同時に物体を発見することを期待するものである。
論文 参考訳(メタデータ) (2022-11-14T16:33:54Z) - One-Shot Object Affordance Detection in the Wild [76.46484684007706]
Affordance Detectionは、画像内のオブジェクトの潜在的なアクション可能性を特定することを指す。
我々は、人間の行動目的を推定し、それを転送して、すべての候補画像から共通価格を検出するワンショットアフォーダンス検出ネットワーク(OSAD-Net)を考案する。
複雑なシーンと豊富なアノテーションによって、当社のPADv2データセットは、アベイランス検出メソッドをベンチマークするためのテストベッドとして使用することができます。
論文 参考訳(メタデータ) (2021-08-08T14:53:10Z) - Detecting Human-Object Interaction via Fabricated Compositional Learning [106.37536031160282]
ヒューマンオブジェクトインタラクション(HOI)検出は、高レベルのシーン理解のための基本的なタスクです。
人間は珍しいまたは見えないHOIのサンプルを認識する非常に強力な構成知覚能力があります。
オープン長尾HOI検出の課題を解決するために,FCL(Fabricated Compositional Learning)を提案する。
論文 参考訳(メタデータ) (2021-03-15T08:52:56Z) - GO-Finder: A Registration-Free Wearable System for Assisting Users in
Finding Lost Objects via Hand-Held Object Discovery [23.33413589457104]
GO-Finderは、登録不要のウェアラブルカメラベースのシステムで、オブジェクトの発見を支援する。
Go-Finderは手持ちのオブジェクトを自動的に検出してグループ化し、オブジェクトのビジュアルタイムラインを形成する。
論文 参考訳(メタデータ) (2021-01-18T20:04:56Z) - Semantic Linking Maps for Active Visual Object Search [14.573513188682183]
我々はランドマークと対象物の間の共通空間関係に関する背景知識を利用する。
本稿では,セマンティックリンクマップ(SLiM)モデルの導入により,アクティブなビジュアルオブジェクト探索戦略を提案する。
SLiMに基づいて、ターゲットオブジェクトを探索する次の最適なポーズを選択するハイブリッド検索戦略について述べる。
論文 参考訳(メタデータ) (2020-06-18T18:59:44Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。