論文の概要: AccessLens: Auto-detecting Inaccessibility of Everyday Objects
- arxiv url: http://arxiv.org/abs/2401.15996v2
- Date: Fri, 23 Feb 2024 17:06:14 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-26 17:29:38.299423
- Title: AccessLens: Auto-detecting Inaccessibility of Everyday Objects
- Title(参考訳): accesslens: 日常オブジェクトのアクセス不能を自動的に検出する
- Authors: Nahyun Kwon, Qian Lu, Muhammad Hasham Qazi, Joanne Liu, Changhoon Oh,
Shu Kong, Jeeeun Kim
- Abstract要約: 本稿では,日常オブジェクトのアクセス不能なインターフェースを識別するためのエンドツーエンドシステムであるAccessLensを紹介する。
当社のアプローチでは,21の非アクセシビリティクラスを自動的に認識するために設計された新しいAccessDBデータセットを使用して,検出器をトレーニングする。
AccessMetaは、これらのアクセシビリティクラスをオープンソース3D拡張設計にリンクする包括的な辞書を構築するための堅牢な方法として機能する。
- 参考スコア(独自算出の注目度): 17.269659576368536
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In our increasingly diverse society, everyday physical interfaces often
present barriers, impacting individuals across various contexts. This
oversight, from small cabinet knobs to identical wall switches that can pose
different contextual challenges, highlights an imperative need for solutions.
Leveraging low-cost 3D-printed augmentations such as knob magnifiers and
tactile labels seems promising, yet the process of discovering unrecognized
barriers remains challenging because disability is context-dependent. We
introduce AccessLens, an end-to-end system designed to identify inaccessible
interfaces in daily objects, and recommend 3D-printable augmentations for
accessibility enhancement. Our approach involves training a detector using the
novel AccessDB dataset designed to automatically recognize 21 distinct
Inaccessibility Classes (e.g., bar-small and round-rotate) within 6 common
object categories (e.g., handle and knob). AccessMeta serves as a robust way to
build a comprehensive dictionary linking these accessibility classes to
open-source 3D augmentation designs. Experiments demonstrate our detector's
performance in detecting inaccessible objects.
- Abstract(参考訳): ますます多様な社会では、日常的な物理的インターフェースが障壁をしばしば提示し、様々な状況の個人に影響を与えます。
この見落としは、小さなキャビネットのノブから、異なる状況に挑戦できる同じ壁のスイッチまで、ソリューションの必要性を強調するものだ。
ノブ拡大器や触覚ラベルなどの低コストな3dプリントによる拡張を活用することは有望だが、障害がコンテキスト依存であるため、認識できない障壁を発見するプロセスは依然として困難である。
我々は,アクセシビリティ向上のために3dプリント可能な拡張化を推奨し,日常オブジェクトのアクセス不能なインターフェースを識別するエンドツーエンドシステムであるaccesslensを紹介する。
このアプローチでは、6つの共通オブジェクトカテゴリ(ハンドルやノブなど)で21の異なる到達不能クラス(バーサイズやラウンドローテーションなど)を自動的に認識するように設計された新しいAccessDBデータセットを使用して、検出器をトレーニングする。
AccessMetaは、これらのアクセシビリティクラスをオープンソースの3D拡張設計にリンクする包括的な辞書を構築するための堅牢な方法である。
実験では、到達不能物体の検出における検出器の性能を実証した。
関連論文リスト
- Dual-Perspective Knowledge Enrichment for Semi-Supervised 3D Object
Detection [55.210991151015534]
本稿では, DPKE という新しい2次元知識豊か化手法を提案する。
我々のDPKEは、データパースペクティブと機能パースペクティブという2つの観点から、限られたトレーニングデータ、特にラベルなしデータの知識を豊かにしています。
論文 参考訳(メタデータ) (2024-01-10T08:56:07Z) - Towards Open World Active Learning for 3D Object Detection [43.242426340854905]
3次元物体検出のためのオープンワールドアクティブラーニング(OWAL-3D)について紹介する。
OWAL-3Dは、既知のクラスと未知クラスの両方で検出性能を最大化しながら、アノテートする少数の3Dボックスを選択することを目的としている。
我々は,2つの関係制約をシンプルかつ効果的なAL戦略であるOpenCRBに統合する。
論文 参考訳(メタデータ) (2023-10-16T13:32:53Z) - Fine-grained 3D object recognition: an approach and experiments [0.0]
3次元物体認識技術は、自動車の自律運転などの先進技術における中核技術として利用されている。
i)Global Orthographic Object Descriptor (GOOD)のような手作りのアプローチと、(ii)MobileNetやVGGのようなディープラーニングベースのアプローチである。
本稿では,オブジェクトビューを入力とし,カテゴリラベルを出力として生成するオフライン3Dオブジェクト認識システムを最初に実装した。
オフラインの段階では、インスタンスベースの学習(IBL)が新しいものを形成するために使用される
論文 参考訳(メタデータ) (2023-06-28T04:48:21Z) - View-to-Label: Multi-View Consistency for Self-Supervised 3D Object
Detection [46.077668660248534]
本稿では,RGBシーケンスのみから,自己監督型3Dオブジェクト検出を行う手法を提案する。
KITTI 3Dデータセットを用いた実験では,最先端の自己管理手法と同等の性能を示した。
論文 参考訳(メタデータ) (2023-05-29T09:30:39Z) - Universal Object Detection with Large Vision Model [79.06618136217142]
本研究は,大規模多領域普遍物体検出問題に焦点をあてる。
これらの課題に対処するために,ラベル処理,階層型設計,資源効率のよいモデルトレーニングを提案する。
本手法は,ロバスト・ビジョン・チャレンジ2022のオブジェクト検出トラックにおいて,優れた2位の地位を確保した。
論文 参考訳(メタデータ) (2022-12-19T12:40:13Z) - Integrating Accessibility in a Mobile App Development Course [0.0]
このコースでは、アクセシビリティ・アウェアネス(法律専門家によるゲスト講演)、技術知識(Androidアクセシビリティガイドラインとテストプラクティスに関する講義)、共感(学生がスクリーンリーダーを使って携帯電話を目隠しして操作する必要がある活動)という3つのアクセシビリティ関連トピックを紹介した。
すべての学生は、スクリーンショットから、現実世界のアプリのユーザーインターフェイスの少なくとも1つのアクセシビリティーの問題を正しく特定することができ、90%が修正のための正しい解決策を提供することができる。
論文 参考訳(メタデータ) (2022-10-12T12:44:33Z) - Continual Object Detection via Prototypical Task Correlation Guided
Gating Mechanism [120.1998866178014]
pRotOtypeal taSk corrElaTion guided gaTingAnism (ROSETTA)による連続物体検出のためのフレキシブルなフレームワークを提案する。
具体的には、統一されたフレームワークはすべてのタスクで共有され、タスク対応ゲートは特定のタスクのサブモデルを自動的に選択するために導入されます。
COCO-VOC、KITTI-Kitchen、VOCのクラスインクリメンタル検出、および4つのタスクの逐次学習の実験により、ROSETTAが最先端のパフォーマンスを得ることが示された。
論文 参考訳(メタデータ) (2022-05-06T07:31:28Z) - Multi-modal Transformers Excel at Class-agnostic Object Detection [105.10403103027306]
既存の手法では、人間の理解可能な意味論によって支配されるトップダウンの監視信号が欠落していると論じる。
マルチスケール特徴処理と変形可能な自己アテンションを用いた効率よく柔軟なMViTアーキテクチャを開発した。
多様なアプリケーションにおけるMViT提案の重要性を示す。
論文 参考訳(メタデータ) (2021-11-22T18:59:29Z) - ObjectFolder: A Dataset of Objects with Implicit Visual, Auditory, and
Tactile Representations [52.226947570070784]
両課題に対処する100のオブジェクトからなるデータセットであるObjectを,2つの重要なイノベーションで紹介する。
まず、オブジェクトは視覚的、聴覚的、触覚的なすべてのオブジェクトの知覚データをエンコードし、多数の多感覚オブジェクト認識タスクを可能にする。
第2に、Objectは統一されたオブジェクト中心のシミュレーションと、各オブジェクトの視覚的テクスチャ、触覚的読み出し、触覚的読み出しに暗黙的な表現を採用しており、データセットの使用が柔軟で共有が容易である。
論文 参考訳(メタデータ) (2021-09-16T14:00:59Z) - Learnable Online Graph Representations for 3D Multi-Object Tracking [156.58876381318402]
3D MOT問題に対する統一型学習型アプローチを提案します。
我々は、完全にトレーニング可能なデータアソシエーションにNeural Message Passing Networkを使用します。
AMOTAの65.6%の最先端性能と58%のIDスウィッチを達成して、公開可能なnuScenesデータセットに対する提案手法のメリットを示す。
論文 参考訳(メタデータ) (2021-04-23T17:59:28Z) - ORBIT: A Real-World Few-Shot Dataset for Teachable Object Recognition [21.594641488685376]
我々は,視覚障害者のための教示可能な物体認識装置を実世界に適用したorbitデータセットとベンチマークを提案する。
データセットには、携帯電話で盲目/低視野の人が記録した486個のオブジェクトの3,822本のビデオが含まれている。
ベンチマークは現実的な、非常に挑戦的な認識問題を反映し、少数のショット、高変動条件に堅牢性の研究を推進するための豊富な遊び場を提供します。
論文 参考訳(メタデータ) (2021-04-08T15:32:01Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。