論文の概要: AGILE3D: Attention Guided Interactive Multi-object 3D Segmentation
- arxiv url: http://arxiv.org/abs/2306.00977v1
- Date: Thu, 1 Jun 2023 17:59:10 GMT
- ステータス: 処理完了
- システム内更新日: 2023-06-02 13:51:08.934738
- Title: AGILE3D: Attention Guided Interactive Multi-object 3D Segmentation
- Title(参考訳): AGILE3D: 対話型多目的3Dセグメンテーション
- Authors: Yuanwen Yue, Sabarinath Mahadevan, Jonas Schult, Francis Engelmann,
Bastian Leibe, Konrad Schindler, Theodora Kontogianni
- Abstract要約: 我々は,複数の3Dオブジェクトの同時セグメンテーションをサポートする,効率的で注目度の高いモデルAGILE3Dを紹介する。
ユーザクリックをクエリとして、異なるクリック位置とクリック間と3Dポイントクラウド機能の間のコンテキスト関係を表現するために、クロスアテンションを使用します。
- 参考スコア(独自算出の注目度): 38.50662286067312
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: During interactive segmentation, a model and a user work together to
delineate objects of interest in a 3D point cloud. In an iterative process, the
model assigns each data point to an object (or the background), while the user
corrects errors in the resulting segmentation and feeds them back into the
model. From a machine learning perspective the goal is to design the model and
the feedback mechanism in a way that minimizes the required user input. The
current best practice segments objects one at a time, and asks the user to
provide positive clicks to indicate regions wrongly assigned to the background
and negative clicks to indicate regions wrongly assigned to the object
(foreground). Sequentially visiting objects is wasteful, since it disregards
synergies between objects: a positive click for a given object can, by
definition, serve as a negative click for nearby objects, moreover a direct
competition between adjacent objects can speed up the identification of their
common boundary. We introduce AGILE3D, an efficient, attention-based model that
(1) supports simultaneous segmentation of multiple 3D objects, (2) yields more
accurate segmentation masks with fewer user clicks, and (3) offers faster
inference. We encode the point cloud into a latent feature representation, and
view user clicks as queries and employ cross-attention to represent contextual
relations between different click locations as well as between clicks and the
3D point cloud features. Every time new clicks are added, we only need to run a
lightweight decoder that produces updated segmentation masks. In experiments
with four different point cloud datasets, AGILE3D sets a new state of the art,
moreover, we also verify its practicality in real-world setups with a real user
study.
- Abstract(参考訳): インタラクティブなセグメンテーションでは、モデルとユーザが協力して、関心のあるオブジェクトを3Dポイントクラウドに記述する。
反復的なプロセスでは、モデルが各データポイントをオブジェクト(または背景)に割り当て、ユーザが結果のセグメンテーションのエラーを修正してモデルにフィードバックする。
マシンラーニングの観点からは、必要なユーザ入力を最小限に抑えるように、モデルとフィードバックメカニズムを設計することが目標です。
現在のベストプラクティスでは、オブジェクトを一度に1つずつセグメンテーションし、背景に誤って割り当てられた領域と、オブジェクトに間違った割り当てられた領域(前景)を示す負のクリックを示すポジティブなクリックをユーザに求める。
与えられたオブジェクトに対する正のクリックは、定義上は、近くのオブジェクトに対する負のクリックとして機能し、さらに隣接するオブジェクト間の直接競合は、それらの共通境界の識別を高速化することができる。
我々は,(1)複数の3Dオブジェクトの同時セグメンテーションをサポートし,(2)ユーザクリックが少ない精度の高いセグメンテーションマスクを出力し,(3)より高速な推論を提供する,効率的で注意に基づくモデルAGILE3Dを紹介する。
ポイントクラウドを潜在的な機能表現にエンコードし、ユーザクリックをクエリとして表示し、クリックと3dポイントクラウド機能の間だけでなく、さまざまなクリック場所間のコンテキスト関係を表すクロスアテンションを採用します。
新しいクリックが追加されるたびに、更新されたセグメンテーションマスクを生成する軽量デコーダを実行するだけです。
4つの異なるポイントクラウドデータセットを用いた実験では、AGILE3Dが新しい最先端の技術をセットし、さらに実際のユーザスタディによって実際のセットアップにおける実用性を検証する。
関連論文リスト
- PickScan: Object discovery and reconstruction from handheld interactions [99.99566882133179]
シーンの3次元表現を再構成する対話誘導型クラス依存型手法を開発した。
我々の主な貢献は、操作対象のインタラクションを検出し、操作対象のマスクを抽出する新しいアプローチである。
相互作用ベースとクラス非依存のベースラインであるCo-Fusionと比較すると、これはシャムファー距離の73%の減少に相当する。
論文 参考訳(メタデータ) (2024-11-17T23:09:08Z) - iDet3D: Towards Efficient Interactive Object Detection for LiDAR Point
Clouds [39.261055567560724]
我々は,効率的な対話型3Dオブジェクト検出器iDet3Dを提案する。
iDet3Dはユーザフレンドリーな2Dインターフェースをサポートし、3D空間を探索する際の認知的負担を軽減する。
そこで本手法は,数クリックで正確なアノテーションを構築することができることを示す。
論文 参考訳(メタデータ) (2023-12-24T09:59:46Z) - Chat-Scene: Bridging 3D Scene and Large Language Models with Object Identifiers [65.51132104404051]
オブジェクトレベルのシーンと対話するために、オブジェクト識別子とオブジェクト中心表現を導入する。
我々のモデルは、ScanRefer、Multi3DRefer、Scan2Cap、ScanQA、SQA3Dなど、既存のベンチマーク手法よりも大幅に優れています。
論文 参考訳(メタデータ) (2023-12-13T14:27:45Z) - ROAM: Robust and Object-Aware Motion Generation Using Neural Pose
Descriptors [73.26004792375556]
本稿では,3次元オブジェクト認識キャラクタ合成における新しいシーンオブジェクトへのロバストさと一般化が,参照オブジェクトを1つも持たないモーションモデルをトレーニングすることで実現可能であることを示す。
我々は、オブジェクト専用のデータセットに基づいて訓練された暗黙的な特徴表現を活用し、オブジェクトの周りのSE(3)-同変記述体フィールドをエンコードする。
本研究では,3次元仮想キャラクタの動作と相互作用の質,および未知のオブジェクトを持つシナリオに対するロバスト性を大幅に向上することを示す。
論文 参考訳(メタデータ) (2023-08-24T17:59:51Z) - 3DRP-Net: 3D Relative Position-aware Network for 3D Visual Grounding [58.924180772480504]
3Dビジュアルグラウンドは、自由形式の言語記述によって、ターゲットオブジェクトを3Dポイントクラウドにローカライズすることを目的としている。
3次元相対位置認識ネットワーク(3-Net)という,関係性を考慮した一段階フレームワークを提案する。
論文 参考訳(メタデータ) (2023-07-25T09:33:25Z) - Contrastive Lift: 3D Object Instance Segmentation by Slow-Fast
Contrastive Fusion [110.84357383258818]
本稿では,2次元セグメントを3次元に上げ,ニューラルネットワーク表現を用いて融合させる新しい手法を提案する。
このアプローチの中核は、高速なクラスタリング目的関数であり、多数のオブジェクトを持つシーンにスケーラブルで適しています。
我々のアプローチは、ScanNet、Hypersim、Replicaのデータセットからの挑戦的なシーンにおいて、最先端の状況よりも優れています。
論文 参考訳(メタデータ) (2023-06-07T17:57:45Z) - Interactive Object Segmentation in 3D Point Clouds [27.88495480980352]
本稿では,ユーザが直接3Dポイントクラウドと対話する対話型3Dオブジェクトセグメンテーション手法を提案する。
私たちのモデルは、ターゲットドメインからのトレーニングデータを必要としない。
異なるデータ特性と異なるオブジェクトクラスを持つ他のいくつかのデータセットでうまく機能する。
論文 参考訳(メタデータ) (2022-04-14T18:31:59Z) - Localized Interactive Instance Segmentation [24.55415554455844]
本稿では,ユーザインタラクションがオブジェクトの近接に制限されるクリック方式を提案する。
提案手法の有効性を,詳細な実験により示す。
論文 参考訳(メタデータ) (2020-10-18T23:24:09Z) - DyStaB: Unsupervised Object Segmentation via Dynamic-Static
Bootstrapping [72.84991726271024]
我々は,コヒーレントなシーン全体を移動しているように見えるシーンの画像の一部を検出し,分割するための教師なしの手法について述べる。
提案手法はまず,セグメント間の相互情報を最小化することにより,運動場を分割する。
セグメントを使用してオブジェクトモデルを学習し、静的なイメージの検出に使用することができる。
論文 参考訳(メタデータ) (2020-08-16T22:05:13Z) - A Deep Learning Approach to Object Affordance Segmentation [31.221897360610114]
我々は,ビデオと静的画像の両方において,画素単位の価格ラベルを推定するオートエンコーダを設計する。
本モデルは,ソフトアテンション機構を用いて,オブジェクトラベルやバウンディングボックスの必要性を克服する。
本モデルは,SOR3D-AFF上での強い教師付き手法と比較して,競争力のある結果が得られることを示す。
論文 参考訳(メタデータ) (2020-04-18T15:34:41Z) - SDOD:Real-time Segmenting and Detecting 3D Object by Depth [5.97602869680438]
本稿では,3次元物体を奥行きで分割・検出するリアルタイムフレームワークを提案する。
オブジェクトの深さを深度カテゴリに分類し、インスタンス分割タスクをピクセルレベルの分類タスクに変換する。
挑戦的なKITTIデータセットの実験から、我々のアプローチはLklNetを約1.8倍の性能で、セグメンテーションと3D検出の速度を上回ります。
論文 参考訳(メタデータ) (2020-01-26T09:06:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。