論文の概要: ORBIT: A Real-World Few-Shot Dataset for Teachable Object Recognition
- arxiv url: http://arxiv.org/abs/2104.03841v2
- Date: Fri, 9 Apr 2021 16:56:43 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-12 13:06:15.498803
- Title: ORBIT: A Real-World Few-Shot Dataset for Teachable Object Recognition
- Title(参考訳): ORBIT:Teachable Object Recognitionのための実世界のFew-Shotデータセット
- Authors: Daniela Massiceti, Luisa Zintgraf, John Bronskill, Lida Theodorou,
Matthew Tobias Harris, Edward Cutrell, Cecily Morrison, Katja Hofmann, Simone
Stumpf
- Abstract要約: 我々は,視覚障害者のための教示可能な物体認識装置を実世界に適用したorbitデータセットとベンチマークを提案する。
データセットには、携帯電話で盲目/低視野の人が記録した486個のオブジェクトの3,822本のビデオが含まれている。
ベンチマークは現実的な、非常に挑戦的な認識問題を反映し、少数のショット、高変動条件に堅牢性の研究を推進するための豊富な遊び場を提供します。
- 参考スコア(独自算出の注目度): 21.594641488685376
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Object recognition has made great advances in the last decade, but
predominately still relies on many high-quality training examples per object
category. In contrast, learning new objects from only a few examples could
enable many impactful applications from robotics to user personalization. Most
few-shot learning research, however, has been driven by benchmark datasets that
lack the high variation that these applications will face when deployed in the
real-world. To close this gap, we present the ORBIT dataset and benchmark,
grounded in a real-world application of teachable object recognizers for people
who are blind/low vision. The dataset contains 3,822 videos of 486 objects
recorded by people who are blind/low-vision on their mobile phones, and the
benchmark reflects a realistic, highly challenging recognition problem,
providing a rich playground to drive research in robustness to few-shot,
high-variation conditions. We set the first state-of-the-art on the benchmark
and show that there is massive scope for further innovation, holding the
potential to impact a broad range of real-world vision applications including
tools for the blind/low-vision community. The dataset is available at
https://bit.ly/2OyElCj and the code to run the benchmark at
https://bit.ly/39YgiUW.
- Abstract(参考訳): オブジェクト認識は過去10年で大きな進歩を遂げてきたが、依然としてオブジェクトカテゴリごとに多くの高品質なトレーニング例に依存している。
対照的に、いくつかの例から新しいオブジェクトを学ぶことで、ロボット工学からユーザパーソナライズまで、多くのインパクトのあるアプリケーションが可能になる。
しかし、ほとんどの少数の機械学習研究は、現実世界にデプロイする際、これらのアプリケーションが直面する高いばらつきに欠けるベンチマークデータセットによって推進されている。
このギャップを埋めるため,我々は,視覚障害者を対象とした実世界の教示可能な物体認識システムとして,orbit datasetとbenchmarkを紹介する。
このデータセットには、携帯電話で視覚障害者が記録した486のオブジェクトの3,822本のビデオが含まれており、このベンチマークは現実的で非常に困難な認識問題を反映している。
我々は、ベンチマークで最初の最先端技術を設定し、さらなるイノベーションのための大きなスコープがあることを示し、ブラインド/ロービジョンコミュニティのためのツールを含む、幅広い現実世界のビジョンアプリケーションに影響を与える可能性を秘めている。
データセットはhttps://bit.ly/2OyElCjで、ベンチマークを実行するコードはhttps://bit.ly/39YgiUWで入手できる。
関連論文リスト
- Plain-Det: A Plain Multi-Dataset Object Detector [22.848784430833835]
Plain-Detは、新しいデータセットに対応する柔軟性、さまざまなデータセットのパフォーマンス、トレーニング効率を提供する。
13の下流データセットに対して広範な実験を行い、Plain-Detは強力な一般化能力を示す。
論文 参考訳(メタデータ) (2024-07-14T05:18:06Z) - Deep Learning-Based Object Pose Estimation: A Comprehensive Survey [73.74933379151419]
ディープラーニングに基づくオブジェクトポーズ推定の最近の進歩について論じる。
また、複数の入力データモダリティ、出力ポーズの自由度、オブジェクト特性、下流タスクについても調査した。
論文 参考訳(メタデータ) (2024-05-13T14:44:22Z) - Open World Object Detection in the Era of Foundation Models [53.683963161370585]
5つの実世界のアプリケーション駆動データセットを含む新しいベンチマークを導入する。
本稿では,オープンワールドのための新しいオブジェクト検出モデル(FOMO)を提案する。
論文 参考訳(メタデータ) (2023-12-10T03:56:06Z) - The ObjectFolder Benchmark: Multisensory Learning with Neural and Real
Objects [51.22194706674366]
マルチセンサーなオブジェクト中心学習のための10のタスクからなるベンチマークスイートであるObject Benchmarkを紹介した。
また,100個の実世界の家庭用オブジェクトに対するマルチセンサー計測を含む,オブジェクトリアルデータセットについても紹介する。
論文 参考訳(メタデータ) (2023-06-01T17:51:22Z) - OVTrack: Open-Vocabulary Multiple Object Tracking [64.73379741435255]
OVTrackは任意のオブジェクトクラスを追跡することができるオープン語彙トラッカーである。
大規模な大語彙のTAOベンチマークに新たな最先端技術が設定されている。
論文 参考訳(メタデータ) (2023-04-17T16:20:05Z) - Lifelong Ensemble Learning based on Multiple Representations for
Few-Shot Object Recognition [6.282068591820947]
本稿では,複数表現に基づく一生涯のアンサンブル学習手法を提案する。
生涯学習を容易にするため、各アプローチは、オブジェクト情報を即座に保存して検索するメモリユニットを備える。
提案手法の有効性を,オフラインおよびオープンエンドシナリオで評価するために,幅広い実験を行った。
論文 参考訳(メタデータ) (2022-05-04T10:29:10Z) - MetaGraspNet: A Large-Scale Benchmark Dataset for Vision-driven Robotic
Grasping via Physics-based Metaverse Synthesis [78.26022688167133]
本稿では,物理に基づくメタバース合成による視覚駆動型ロボットグルーピングのための大規模ベンチマークデータセットを提案する。
提案するデータセットには,10万の画像と25種類のオブジェクトが含まれている。
また,オブジェクト検出とセグメンテーション性能を評価するためのデータセットとともに,新しいレイアウト重み付け性能指標を提案する。
論文 参考訳(メタデータ) (2021-12-29T17:23:24Z) - ObjectFolder: A Dataset of Objects with Implicit Visual, Auditory, and
Tactile Representations [52.226947570070784]
両課題に対処する100のオブジェクトからなるデータセットであるObjectを,2つの重要なイノベーションで紹介する。
まず、オブジェクトは視覚的、聴覚的、触覚的なすべてのオブジェクトの知覚データをエンコードし、多数の多感覚オブジェクト認識タスクを可能にする。
第2に、Objectは統一されたオブジェクト中心のシミュレーションと、各オブジェクトの視覚的テクスチャ、触覚的読み出し、触覚的読み出しに暗黙的な表現を採用しており、データセットの使用が柔軟で共有が容易である。
論文 参考訳(メタデータ) (2021-09-16T14:00:59Z) - F-SIOL-310: A Robotic Dataset and Benchmark for Few-Shot Incremental
Object Learning [9.89901717499058]
本稿では,F-SIOL-310(Few-Shot Incremental Object Learning)を用いて,ロボットビジョンのためのインクリメンタルな物体学習機能をテストする。
また,F-SIOL-310における8つのインクリメンタル学習アルゴリズムのベンチマークと評価を行い,今後の比較を行った。
論文 参考訳(メタデータ) (2021-03-23T00:25:50Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。