論文の概要: iLabel: Interactive Neural Scene Labelling
- arxiv url: http://arxiv.org/abs/2111.14637v1
- Date: Mon, 29 Nov 2021 15:49:20 GMT
- ステータス: 処理完了
- システム内更新日: 2021-11-30 17:36:55.725481
- Title: iLabel: Interactive Neural Scene Labelling
- Title(参考訳): iLabel:インタラクティブなニューラルシーンラベリング
- Authors: Shuaifeng Zhi and Edgar Sucar and Andre Mouton and Iain Haughton and
Tristan Laidlow and Andrew J. Davison
- Abstract要約: 3次元神経場を用いた幾何学、色、意味の合同表現は、超スパース相互作用による正確な密なラベリングを可能にする。
当社のiLabelシステムは、トレーニングデータを必要としないが、標準的な方法よりも正確にシーンをラベル付けすることができる。
これは'オープンセット'のやり方で動作し、ユーザがオンザフライで定義したセマンティッククラスで機能する。
- 参考スコア(独自算出の注目度): 20.63756683450811
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Joint representation of geometry, colour and semantics using a 3D neural
field enables accurate dense labelling from ultra-sparse interactions as a user
reconstructs a scene in real-time using a handheld RGB-D sensor. Our iLabel
system requires no training data, yet can densely label scenes more accurately
than standard methods trained on large, expensively labelled image datasets.
Furthermore, it works in an 'open set' manner, with semantic classes defined on
the fly by the user.
iLabel's underlying model is a multilayer perceptron (MLP) trained from
scratch in real-time to learn a joint neural scene representation. The scene
model is updated and visualised in real-time, allowing the user to focus
interactions to achieve efficient labelling. A room or similar scene can be
accurately labelled into 10+ semantic categories with only a few tens of
clicks. Quantitative labelling accuracy scales powerfully with the number of
clicks, and rapidly surpasses standard pre-trained semantic segmentation
methods. We also demonstrate a hierarchical labelling variant.
- Abstract(参考訳): ユーザがハンドヘルドrgb-dセンサーを使用してシーンをリアルタイムに再構築することで,3次元ニューラルフィールドを用いた幾何学,色彩,セマンティクスの結合表現により,超疎相互作用による高精度な高密度ラベリングが可能になる。
当社のiLabelシステムは、トレーニングデータを必要としないが、大規模で高価なラベル付き画像データセットでトレーニングされた標準的な方法よりも、より正確にシーンをラベル付けすることができる。
さらには、ユーザがオンザフライで定義したセマンティッククラスを使って、'オープンセット'形式で機能する。
ilabelの基盤となるモデルは、リアルタイムにスクラッチから訓練された多層パーセプトロン(mlp)で、ジョイントニューラルネットワークのシーン表現を学ぶ。
シーンモデルはリアルタイムで更新および視覚化され、ユーザは対話に集中して効率的なラベリングを実現することができる。
部屋や似たようなシーンは、数クリックで10以上のセマンティックカテゴリに正確にラベル付けできる。
量的ラベリング精度はクリック数で強力にスケールし、標準の事前学習されたセマンティクスセグメンテーション法を急速に超えている。
また階層的なラベル付けの変種を示す。
関連論文リスト
- LABELMAKER: Automatic Semantic Label Generation from RGB-D Trajectories [59.14011485494713]
この研究は、完全に自動化された2D/3Dラベリングフレームワークを導入し、RGB-Dスキャンのラベルを同等(あるいはそれ以上)の精度で生成できる。
我々は、ScanNetデータセットのラベルを大幅に改善し、これまでラベル付けされていなかったARKitScenesデータセットを自動的にラベル付けすることで、LabelMakerパイプラインの有効性を実証する。
論文 参考訳(メタデータ) (2023-11-20T20:40:24Z) - Distilling Self-Supervised Vision Transformers for Weakly-Supervised
Few-Shot Classification & Segmentation [58.03255076119459]
視覚変換器(ViT)を利用した弱教師付き小ショット画像分類とセグメンテーションの課題に対処する。
提案手法は,自己監督型ViTからトークン表現を抽出し,その相関関係を利用して分類とセグメンテーションの予測を行う。
Pascal-5iとCOCO-20iの実験は、様々な監視設定において大きなパフォーマンス向上を示した。
論文 参考訳(メタデータ) (2023-07-07T06:16:43Z) - You Only Need One Thing One Click: Self-Training for Weakly Supervised
3D Scene Understanding [107.06117227661204]
私たちはOne Thing One Click''を提案する。つまり、アノテーションはオブジェクトごとに1つのポイントをラベル付けするだけです。
グラフ伝搬モジュールによって促進されるトレーニングとラベル伝搬を反復的に行う。
我々のモデルは、ポイントクラスタリング戦略を備えた3Dインスタンスセグメンテーションと互換性がある。
論文 参考訳(メタデータ) (2023-03-26T13:57:00Z) - One Thing One Click: A Self-Training Approach for Weakly Supervised 3D
Semantic Segmentation [78.36781565047656]
私たちは、アノテーションーがオブジェクトごとに1ポイントだけラベルを付ける必要があることを意味する「One Thing One Click」を提案します。
グラフ伝搬モジュールによって促進されるトレーニングとラベル伝搬を反復的に行う。
私たちの結果は、完全に監督されたものと同等です。
論文 参考訳(メタデータ) (2021-04-06T02:27:25Z) - In-Place Scene Labelling and Understanding with Implicit Scene
Representation [39.73806072862176]
ニューラルラジアンスフィールド(NeRF)を拡張して、外観とジオメトリでセマンティクスを共同エンコードします。
ルームスケールのシーンでは、ラベルがスパースまたは非常に騒々しい場合、このアプローチの利点を示します。
論文 参考訳(メタデータ) (2021-03-29T18:30:55Z) - Label Confusion Learning to Enhance Text Classification Models [3.0251266104313643]
ラベル混乱モデル(lcm)はラベル間の意味的重複を捉えるためにラベル混乱を学習する。
lcmは、元のホットラベルベクトルを置き換えるより優れたラベル分布を生成することができる。
5つのテキスト分類ベンチマークデータセットの実験により、広く使われているディープラーニング分類モデルに対するLCMの有効性が明らかにされた。
論文 参考訳(メタデータ) (2020-12-09T11:34:35Z) - Knowledge-Guided Multi-Label Few-Shot Learning for General Image
Recognition [75.44233392355711]
KGGRフレームワークは、ディープニューラルネットワークと統計ラベル相関の事前知識を利用する。
まず、統計ラベルの共起に基づいて異なるラベルを相関させる構造化知識グラフを構築する。
次に、ラベルセマンティクスを導入し、学習セマンティクス固有の特徴をガイドする。
グラフノードの相互作用を探索するためにグラフ伝搬ネットワークを利用する。
論文 参考訳(メタデータ) (2020-09-20T15:05:29Z) - RGB-based Semantic Segmentation Using Self-Supervised Depth Pre-Training [77.62171090230986]
本稿では,任意の意味的RGBセグメンテーション手法の事前学習に使用できる,スケーラブルで自己管理の容易な手法を提案する。
特に、我々の事前学習アプローチでは、深度センサーを用いて得られるラベルを自動生成する。
提案したHNラベルによる自己教師付き事前学習が,ImageNetの事前学習にどのように応用できるかを示す。
論文 参考訳(メタデータ) (2020-02-06T11:16:24Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。