論文の概要: AccessLens: Auto-detecting Inaccessibility of Everyday Objects
- arxiv url: http://arxiv.org/abs/2401.15996v1
- Date: Mon, 29 Jan 2024 09:27:55 GMT
- ステータス: 処理完了
- システム内更新日: 2024-01-30 15:29:13.589771
- Title: AccessLens: Auto-detecting Inaccessibility of Everyday Objects
- Title(参考訳): accesslens: 日常オブジェクトのアクセス不能を自動的に検出する
- Authors: Nahyun Kwon, Qian Lu, Muhammad Hasham Qazi, Joanne Liu, Changhoon Oh,
Shu Kong, Jeeeun Kim
- Abstract要約: 本稿では,日常オブジェクトのアクセス不能なインターフェースを識別するためのエンドツーエンドシステムであるAccessLensを紹介する。
当社のアプローチでは,21の非アクセシビリティクラスを自動的に認識するために設計された新しいAccessDBデータセットを使用して,検出器をトレーニングする。
AccessMetaは、これらのアクセシビリティクラスをオープンソース3D拡張設計にリンクする包括的な辞書を構築するための堅牢な方法として機能する。
- 参考スコア(独自算出の注目度): 17.269659576368536
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In our increasingly diverse society, everyday physical interfaces often
present barriers, impacting individuals across various contexts. This
oversight, from small cabinet knobs to identical wall switches that can pose
different contextual challenges, highlights an imperative need for solutions.
Leveraging low-cost 3D-printed augmentations such as knob magnifiers and
tactile labels seems promising, yet the process of discovering unrecognized
barriers remains challenging because disability is context-dependent. We
introduce AccessLens, an end-to-end system designed to identify inaccessible
interfaces in daily objects, and recommend 3D-printable augmentations for
accessibility enhancement. Our approach involves training a detector using the
novel AccessDB dataset designed to automatically recognize 21 distinct
Inaccessibility Classes (e.g., bar-small and round-rotate) within 6 common
object categories (e.g., handle and knob). AccessMeta serves as a robust way to
build a comprehensive dictionary linking these accessibility classes to
open-source 3D augmentation designs. Experiments demonstrate our detector's
performance in detecting inaccessible objects.
- Abstract(参考訳): ますます多様な社会では、日常的な物理的インターフェースが障壁をしばしば提示し、様々な状況の個人に影響を与えます。
この見落としは、小さなキャビネットのノブから、異なる状況に挑戦できる同じ壁のスイッチまで、ソリューションの必要性を強調するものだ。
ノブ拡大器や触覚ラベルなどの低コストな3dプリントによる拡張を活用することは有望だが、障害がコンテキスト依存であるため、認識できない障壁を発見するプロセスは依然として困難である。
我々は,アクセシビリティ向上のために3dプリント可能な拡張化を推奨し,日常オブジェクトのアクセス不能なインターフェースを識別するエンドツーエンドシステムであるaccesslensを紹介する。
このアプローチでは、6つの共通オブジェクトカテゴリ(ハンドルやノブなど)で21の異なる到達不能クラス(バーサイズやラウンドローテーションなど)を自動的に認識するように設計された新しいAccessDBデータセットを使用して、検出器をトレーニングする。
AccessMetaは、これらのアクセシビリティクラスをオープンソースの3D拡張設計にリンクする包括的な辞書を構築するための堅牢な方法である。
実験では、到達不能物体の検出における検出器の性能を実証した。
関連論文リスト
- Open3DTrack: Towards Open-Vocabulary 3D Multi-Object Tracking [73.05477052645885]
オープンな語彙的3Dトラッキングを導入し、3Dトラッキングの範囲を広げて、定義済みのカテゴリを超えてオブジェクトを含める。
本稿では,オープン語彙機能を3次元トラッキングフレームワークに統合し,オブジェクトクラスが見えないように一般化する手法を提案する。
論文 参考訳(メタデータ) (2024-10-02T15:48:42Z) - V3Det Challenge 2024 on Vast Vocabulary and Open Vocabulary Object Detection: Methods and Results [142.5704093410454]
V3Det Challenge 2024は、オブジェクト検出研究の境界を推し進めることを目的としている。
Vast Vocabulary Object DetectionとOpen Vocabulary Object Detectionの2つのトラックで構成されている。
我々は,広い語彙とオープン語彙のオブジェクト検出において,今後の研究の方向性を刺激することを目指している。
論文 参考訳(メタデータ) (2024-06-17T16:58:51Z) - UniTeam: Open Vocabulary Mobile Manipulation Challenge [4.523096223190858]
このレポートでは、"HomeRobot: Open Vocabulary Mobile Manipulation"チャレンジのベースラインを改良したUniTeamエージェントを紹介します。
この課題は、慣れない環境でのナビゲーション、新しいオブジェクトの操作、オープン語彙オブジェクトクラスの認識の問題を引き起こす。
この課題は、機械学習、コンピュータビジョン、自然言語、ロボット工学の最近の進歩を利用して、AIを具現化した横断的な研究を促進することを目的としている。
論文 参考訳(メタデータ) (2023-12-14T02:24:29Z) - Fine-grained 3D object recognition: an approach and experiments [0.0]
3次元物体認識技術は、自動車の自律運転などの先進技術における中核技術として利用されている。
i)Global Orthographic Object Descriptor (GOOD)のような手作りのアプローチと、(ii)MobileNetやVGGのようなディープラーニングベースのアプローチである。
本稿では,オブジェクトビューを入力とし,カテゴリラベルを出力として生成するオフライン3Dオブジェクト認識システムを最初に実装した。
オフラインの段階では、インスタンスベースの学習(IBL)が新しいものを形成するために使用される
論文 参考訳(メタデータ) (2023-06-28T04:48:21Z) - View-to-Label: Multi-View Consistency for Self-Supervised 3D Object
Detection [46.077668660248534]
本稿では,RGBシーケンスのみから,自己監督型3Dオブジェクト検出を行う手法を提案する。
KITTI 3Dデータセットを用いた実験では,最先端の自己管理手法と同等の性能を示した。
論文 参考訳(メタデータ) (2023-05-29T09:30:39Z) - Universal Object Detection with Large Vision Model [79.06618136217142]
本研究は,大規模多領域普遍物体検出問題に焦点をあてる。
これらの課題に対処するために,ラベル処理,階層型設計,資源効率のよいモデルトレーニングを提案する。
本手法は,ロバスト・ビジョン・チャレンジ2022のオブジェクト検出トラックにおいて,優れた2位の地位を確保した。
論文 参考訳(メタデータ) (2022-12-19T12:40:13Z) - Integrating Accessibility in a Mobile App Development Course [0.0]
このコースでは、アクセシビリティ・アウェアネス(法律専門家によるゲスト講演)、技術知識(Androidアクセシビリティガイドラインとテストプラクティスに関する講義)、共感(学生がスクリーンリーダーを使って携帯電話を目隠しして操作する必要がある活動)という3つのアクセシビリティ関連トピックを紹介した。
すべての学生は、スクリーンショットから、現実世界のアプリのユーザーインターフェイスの少なくとも1つのアクセシビリティーの問題を正しく特定することができ、90%が修正のための正しい解決策を提供することができる。
論文 参考訳(メタデータ) (2022-10-12T12:44:33Z) - Continual Object Detection via Prototypical Task Correlation Guided
Gating Mechanism [120.1998866178014]
pRotOtypeal taSk corrElaTion guided gaTingAnism (ROSETTA)による連続物体検出のためのフレキシブルなフレームワークを提案する。
具体的には、統一されたフレームワークはすべてのタスクで共有され、タスク対応ゲートは特定のタスクのサブモデルを自動的に選択するために導入されます。
COCO-VOC、KITTI-Kitchen、VOCのクラスインクリメンタル検出、および4つのタスクの逐次学習の実験により、ROSETTAが最先端のパフォーマンスを得ることが示された。
論文 参考訳(メタデータ) (2022-05-06T07:31:28Z) - Multi-modal Transformers Excel at Class-agnostic Object Detection [105.10403103027306]
既存の手法では、人間の理解可能な意味論によって支配されるトップダウンの監視信号が欠落していると論じる。
マルチスケール特徴処理と変形可能な自己アテンションを用いた効率よく柔軟なMViTアーキテクチャを開発した。
多様なアプリケーションにおけるMViT提案の重要性を示す。
論文 参考訳(メタデータ) (2021-11-22T18:59:29Z) - Learnable Online Graph Representations for 3D Multi-Object Tracking [156.58876381318402]
3D MOT問題に対する統一型学習型アプローチを提案します。
我々は、完全にトレーニング可能なデータアソシエーションにNeural Message Passing Networkを使用します。
AMOTAの65.6%の最先端性能と58%のIDスウィッチを達成して、公開可能なnuScenesデータセットに対する提案手法のメリットを示す。
論文 参考訳(メタデータ) (2021-04-23T17:59:28Z) - ORBIT: A Real-World Few-Shot Dataset for Teachable Object Recognition [21.594641488685376]
我々は,視覚障害者のための教示可能な物体認識装置を実世界に適用したorbitデータセットとベンチマークを提案する。
データセットには、携帯電話で盲目/低視野の人が記録した486個のオブジェクトの3,822本のビデオが含まれている。
ベンチマークは現実的な、非常に挑戦的な認識問題を反映し、少数のショット、高変動条件に堅牢性の研究を推進するための豊富な遊び場を提供します。
論文 参考訳(メタデータ) (2021-04-08T15:32:01Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。