論文の概要: Juggling With Representations: On the Information Transfer Between
Imagery, Point Clouds, and Meshes for Multi-Modal Semantics
- arxiv url: http://arxiv.org/abs/2103.07348v1
- Date: Fri, 12 Mar 2021 15:26:30 GMT
- ステータス: 処理完了
- システム内更新日: 2021-03-15 13:21:06.122842
- Title: Juggling With Representations: On the Information Transfer Between
Imagery, Point Clouds, and Meshes for Multi-Modal Semantics
- Title(参考訳): 表現とジャグリング:マルチモーダル意味論のための画像、点雲、メッシュ間の情報伝達について
- Authors: Dominik Laupheimer and Norbert Haala
- Abstract要約: イメージとポイントクラウド(pcs)は、都市アプリケーションにおける基本的なデータ表現である。
画像とPCメッシュを明示的に統合するメッシュ駆動方式を提案する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: The automatic semantic segmentation of the huge amount of acquired remote
sensing data has become an important task in the last decade. Images and Point
Clouds (PCs) are fundamental data representations, particularly in urban
mapping applications. Textured 3D meshes integrate both data representations
geometrically by wiring the PC and texturing the surface elements with
available imagery. We present a mesh-centered holistic geometry-driven
methodology that explicitly integrates entities of imagery, PC and mesh. Due to
its integrative character, we choose the mesh as the core representation that
also helps to solve the visibility problem for points in imagery. Utilizing the
proposed multi-modal fusion as the backbone and considering the established
entity relationships, we enable the sharing of information across the
modalities imagery, PC and mesh in a two-fold manner: (i) feature transfer and
(ii) label transfer. By these means, we achieve to enrich feature vectors to
multi-modal feature vectors for each representation. Concurrently, we achieve
to label all representations consistently while reducing the manual label
effort to a single representation. Consequently, we facilitate to train machine
learning algorithms and to semantically segment any of these data
representations - both in a multi-modal and single-modal sense. The paper
presents the association mechanism and the subsequent information transfer,
which we believe are cornerstones for multi-modal scene analysis. Furthermore,
we discuss the preconditions and limitations of the presented approach in
detail. We demonstrate the effectiveness of our methodology on the ISPRS 3D
semantic labeling contest (Vaihingen 3D) and a proprietary data set (Hessigheim
3D).
- Abstract(参考訳): 膨大な量のリモートセンシングデータの自動セマンティックセグメンテーションは、過去10年で重要なタスクとなっています。
イメージとポイントクラウド(pcs)は、特に都市地図アプリケーションにおける基本的なデータ表現である。
テクスチャ化された3Dメッシュは、PCを配線し、利用可能な画像で表面要素をテクスチャすることで、両方のデータ表現を幾何学的に統合します。
我々は,画像,pc,メッシュの実体を明示的に統合するメッシュ中心の全体構造駆動手法を提案する。
その統合的な性格から、画像中の点の可視性問題を解決するのに役立つコア表現としてメッシュを選択します。
提案されたマルチモーダル融合をバックボーンとして利用し、確立されたエンティティ関係を考慮することで、モダリティイメージ、PC、メッシュ間の情報の共有を、(i)機能転送と(ii)ラベル転送の2つの方法で実現します。
これらの方法により,各表現に対する特徴ベクトルをマルチモーダル特徴ベクトルに拡張する。
同時に、すべての表現を一貫してラベル付けし、手動のラベルの労力を単一の表現に減らします。
その結果、機械学習アルゴリズムをトレーニングし、これらのデータ表現のいずれかをマルチモーダルとシングルモーダルの両方でセマンティックにセグメント化することができます。
本論文では,マルチモーダルシーン解析の基礎となるコネクティビティ機構とその後の情報伝達について述べる。
さらに,提案手法の前提条件と限界についても詳細に検討する。
ISPRS 3Dセマンティックラベリングコンテスト(Vaihingen 3D)および独自のデータセット(Hessigheim 3D)における方法論の有効性を実証します。
関連論文リスト
- Transcending Fusion: A Multi-Scale Alignment Method for Remote Sensing Image-Text Retrieval [37.775529830620016]
リモートセンシング画像-テキスト検索(RSITR)は、リモートセンシング(RS)ドメインにおける知識サービスとデータマイニングにおいて重要な機能である。
現在のマルチスケールRSITRアプローチは、通常、マルチスケールの融合画像特徴とテキスト特徴とを一致させるが、異なるスケールで画像とテキストのペアを別々に並べて見落としている。
本稿では,この制限を克服するために,新しいマルチスケールアライメント(MSA)手法を提案する。
論文 参考訳(メタデータ) (2024-05-29T10:19:11Z) - JM3D & JM3D-LLM: Elevating 3D Understanding with Joint Multi-modal Cues [68.76032126906743]
私たちは、ポイントクラウド、テキスト、イメージを統合する包括的なアプローチであるJM3Dを紹介します。
SMO(Structured Multimodal Organizer)は、複数のビューと階層的なテキストによる視覚言語表現の強化である。
我々の高度なモデルであるJM3D-LLMは、効率的な微調整により、大規模言語モデルと3D表現を結合する。
論文 参考訳(メタデータ) (2023-10-14T06:13:20Z) - MMRDN: Consistent Representation for Multi-View Manipulation
Relationship Detection in Object-Stacked Scenes [62.20046129613934]
我々は,MMRDN(Multi-view MRD Network)と呼ばれる新しい多視点融合フレームワークを提案する。
異なるビューからの2Dデータを共通の隠れ空間に投影し、埋め込みをVon-Mises-Fisher分布に適合させる。
これら2つのオブジェクトの相対位置を符号化した各オブジェクト対の点雲から、K$最大垂直近傍点(KMVN)の集合を選択する。
論文 参考訳(メタデータ) (2023-04-25T05:55:29Z) - Implicit Ray-Transformers for Multi-view Remote Sensing Image
Segmentation [26.726658200149544]
スパースラベル付きRSシーンセマンティックセグメンテーションのためのインプリシティ・ニューラル表現(INR)に基づく「インプリシティ・レイ・トランスフォーマ(IRT)」を提案する。
提案手法は,2段階の学習プロセスを含む。第1段階では,リモートセンシングシーンの色と3次元構造を符号化するために,ニューラルネットワークを最適化する。
第2段階では、ニューラルネットワークの3D特徴と2Dテクスチャ特徴の関係を利用して、より優れた意味表現を学習するレイ変換器を設計する。
論文 参考訳(メタデータ) (2023-03-15T07:05:07Z) - Cross-Modal Fusion Distillation for Fine-Grained Sketch-Based Image
Retrieval [55.21569389894215]
本稿では,視覚変換器(XModalViT)のクロスアテンションフレームワークを提案する。
我々のフレームワークはまず、個々の写真からペア化されたデータポイントをマッピングし、両方のモダリティから情報を統一する融合表現にスケッチする。
次に、上記のモダリティ融合ネットワークの入力空間を、コントラストおよびリレーショナルなクロスモーダル知識蒸留により個々のモダリティの独立エンコーダに分離する。
論文 参考訳(メタデータ) (2022-10-19T11:50:14Z) - Image Understands Point Cloud: Weakly Supervised 3D Semantic
Segmentation via Association Learning [59.64695628433855]
ラベルのない画像から補完的な情報を取り入れた3次元セグメンテーションのための新しいクロスモダリティ弱教師付き手法を提案する。
基本的に、ラベルの小さな部分のパワーを最大化するために、アクティブなラベリング戦略を備えたデュアルブランチネットワークを設計する。
提案手法は,1%未満のアクティブなアノテーションで,最先端の完全教師付き競合よりも優れていた。
論文 参考訳(メタデータ) (2022-09-16T07:59:04Z) - Two-Stream Graph Convolutional Network for Intra-oral Scanner Image
Segmentation [133.02190910009384]
本稿では,2ストリームグラフ畳み込みネットワーク(TSGCN)を提案する。
TSGCNは3次元歯(表面)セグメンテーションにおいて最先端の方法よりも優れています。
論文 参考訳(メタデータ) (2022-04-19T10:41:09Z) - Improving Lidar-Based Semantic Segmentation of Top-View Grid Maps by
Learning Features in Complementary Representations [3.0413873719021995]
我々は、自律運転の文脈において、スパースで単発のLiDAR測定から意味情報を予測するための新しい方法を提案する。
このアプローチは、トップビューグリッドマップのセマンティックセグメンテーションを改善することを目的としている。
各表現に対して、セマンティック情報を効果的に抽出するために、調整されたディープラーニングアーキテクチャが開発された。
論文 参考訳(メタデータ) (2022-03-02T14:49:51Z) - Similarity-Aware Fusion Network for 3D Semantic Segmentation [87.51314162700315]
本研究では,3次元セマンティックセグメンテーションのための2次元画像と3次元点雲を適応的に融合する類似性認識融合ネットワーク(SAFNet)を提案する。
我々は、入力とバックプロジェクションされた(2Dピクセルから)点雲の間の幾何学的および文脈的類似性を初めて学習する、後期融合戦略を採用している。
SAFNetは、様々なデータ完全性にまたがって、既存の最先端の核融合ベースのアプローチを著しく上回っている。
論文 参考訳(メタデータ) (2021-07-04T09:28:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。