論文の概要: Asynchronous Events-based Panoptic Segmentation using Graph Mixer Neural
Network
- arxiv url: http://arxiv.org/abs/2305.03640v1
- Date: Fri, 5 May 2023 15:56:46 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-08 13:25:43.206386
- Title: Asynchronous Events-based Panoptic Segmentation using Graph Mixer Neural
Network
- Title(参考訳): グラフミキサーニューラルネットワークを用いた非同期イベントに基づくpanopticセグメンテーション
- Authors: Sanket Kachole, Yusra Alkendi, Fariborz Baghaei Naeini, Dimitrios
Makris, Yahya Zweiri
- Abstract要約: 本稿では,イベント上に形成された3次元イベントグラフに適用した,新しい協調的文脈混合を含むグラフニューラルネットワークを提案する。
本研究では,イベントベーステンポラリ(ESD)データセットにおける提案手法の有効性を評価する。
その結果,提案手法は,和和平均交差と画素精度において,最先端の手法よりも優れていた。
- 参考スコア(独自算出の注目度): 3.867356784754811
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In the context of robotic grasping, object segmentation encounters several
difficulties when faced with dynamic conditions such as real-time operation,
occlusion, low lighting, motion blur, and object size variability. In response
to these challenges, we propose the Graph Mixer Neural Network that includes a
novel collaborative contextual mixing layer, applied to 3D event graphs formed
on asynchronous events. The proposed layer is designed to spread spatiotemporal
correlation within an event graph at four nearest neighbor levels parallelly.
We evaluate the effectiveness of our proposed method on the Event-based
Segmentation (ESD) Dataset, which includes five unique image degradation
challenges, including occlusion, blur, brightness, trajectory, scale variance,
and segmentation of known and unknown objects. The results show that our
proposed approach outperforms state-of-the-art methods in terms of mean
intersection over the union and pixel accuracy. Code available at:
https://github.com/sanket0707/GNN-Mixer.git
- Abstract(参考訳): ロボットハンドリングの文脈では、オブジェクトのセグメンテーションは、リアルタイム操作、オクルージョン、低い照明、動きのぼやけ、オブジェクトサイズの変化など、動的条件に直面するといくつかの困難に直面する。
これらの課題に対応して,非同期イベント上に形成される3次元イベントグラフに適用可能な,新たな協調的コンテクストミキシング層を含むグラフミキサーニューラルネットワークを提案する。
提案するレイヤは,イベントグラフ内の時空間相関を4つの近接レベルに並列に展開するように設計されている。
提案手法は,オクルージョン,ぼかし,明るさ,軌道,スケール分散,未知の物体のセグメンテーションの5つのユニークな画像劣化課題を含む,イベントベースセグメンテーション(esd)データセットの有効性を評価する。
その結果,提案手法は結合平均交点と画素精度の点で最先端手法よりも優れていることがわかった。
コード提供: https://github.com/sanket0707/gnn-mixer.git
関連論文リスト
- TESGNN: Temporal Equivariant Scene Graph Neural Networks for Efficient and Robust Multi-View 3D Scene Understanding [8.32401190051443]
本稿では,3次元点群からセマンティックなシーングラフを生成するEquivariant Scene Graph Neural Network (ESGNN) の実装について述べる。
我々の組み合わせアーキテクチャは、時間等変Scene Graph Neural Network (TESGNN) と呼ばれ、シーン推定精度において既存の最先端手法を超えるだけでなく、より高速な収束を実現する。
論文 参考訳(メタデータ) (2024-11-15T15:39:04Z) - GeoMix: Towards Geometry-Aware Data Augmentation [76.09914619612812]
Mixupは画像分類におけるラベル付き限られたデータによる課題の緩和にかなりの成功を収めている。
In-place graph editing を利用した簡易かつ解釈可能な混合手法 Geometric Mixup (GeoMix) を提案する。
論文 参考訳(メタデータ) (2024-07-15T12:58:04Z) - Neuromorphic Vision-based Motion Segmentation with Graph Transformer Neural Network [4.386534439007928]
本稿では,GTNNと呼ばれるグラフトランスフォーマーニューラルネットワークを用いたイベントベース動作分割アルゴリズムを提案する。
提案アルゴリズムは, イベント間の局所的および大域的相関を明らかにするために, 一連の非線形変換により, イベントストリームを3次元グラフとして処理する。
GTNNは、動的背景変動、動きパターン、および様々な大きさと速度を持つ複数の動的物体の存在下で、最先端の手法よりも優れていることを示す。
論文 参考訳(メタデータ) (2024-04-16T22:44:29Z) - Graph Transformer GANs with Graph Masked Modeling for Architectural
Layout Generation [153.92387500677023]
本稿では,グラフノード関係を効果的に学習するために,GTGAN(Graph Transformer Generative Adversarial Network)を提案する。
提案したグラフ変換器エンコーダは、局所的およびグローバルな相互作用をモデル化するために、Transformer内のグラフ畳み込みと自己アテンションを組み合わせる。
また,グラフ表現学習のための自己指導型事前学習手法を提案する。
論文 参考訳(メタデータ) (2024-01-15T14:36:38Z) - Implicit Event-RGBD Neural SLAM [54.74363487009845]
神経性SLAMは近年顕著な進歩を遂げている。
既存の手法は、非理想的なシナリオにおいて重大な課題に直面します。
本稿では,最初のイベントRGBD暗黙的ニューラルSLAMフレームワークであるEN-SLAMを提案する。
論文 参考訳(メタデータ) (2023-11-18T08:48:58Z) - Graph-based Asynchronous Event Processing for Rapid Object Recognition [59.112755601918074]
イベントカメラは、各イベントがピクセル位置、トリガ時間、明るさの極性が変化するような非同期イベントストリームをキャプチャする。
イベントカメラのための新しいグラフベースのフレームワーク、SlideGCNを紹介した。
当社のアプローチでは、データをイベント単位で効率的に処理し、内部でグラフの構造を維持しながら、イベントデータの低レイテンシ特性を解放することが可能です。
論文 参考訳(メタデータ) (2023-08-28T08:59:57Z) - Bimodal SegNet: Instance Segmentation Fusing Events and RGB Frames for
Robotic Grasping [4.191965713559235]
本稿では,イベントベースデータとRGBフレームデータという2種類の視覚信号を融合したディープラーニングネットワークを提案する。
Bimodal SegNetネットワークには、2つの異なるエンコーダがある。
評価結果から,コンバウンドと画素精度の平均交叉点において,最先端手法よりも6~10%向上したことが示された。
論文 参考訳(メタデータ) (2023-03-20T16:09:25Z) - AEGNN: Asynchronous Event-based Graph Neural Networks [54.528926463775946]
イベントベースのグラフニューラルネットワークは、標準のGNNを一般化して、イベントを"進化的"時間グラフとして処理する。
AEGNNは同期入力で容易に訓練でき、テスト時に効率的な「非同期」ネットワークに変換できる。
論文 参考訳(メタデータ) (2022-03-31T16:21:12Z) - RICE: Refining Instance Masks in Cluttered Environments with Graph
Neural Networks [53.15260967235835]
本稿では,インスタンスマスクのグラフベース表現を利用して,そのような手法の出力を改良する新しいフレームワークを提案する。
我々は、セグメンテーションにスマートな摂動をサンプリングできるディープネットワークと、オブジェクト間の関係をエンコード可能なグラフニューラルネットワークを訓練し、セグメンテーションを評価する。
本稿では,本手法によって生成された不確実性推定を用いてマニピュレータを誘導し,乱れたシーンを効率的に理解するアプリケーションについて紹介する。
論文 参考訳(メタデータ) (2021-06-29T20:29:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。