論文の概要: GECO: Geometrically Consistent Embedding with Lightspeed Inference
- arxiv url: http://arxiv.org/abs/2508.00746v1
- Date: Fri, 01 Aug 2025 16:21:11 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-04 18:08:53.949072
- Title: GECO: Geometrically Consistent Embedding with Lightspeed Inference
- Title(参考訳): GECO:光速推論による幾何学的に一貫性のある埋め込み
- Authors: Regine Hartwig, Dominik Muhle, Riccardo Marin, Daniel Cremers,
- Abstract要約: GECOは幾何学的コヒーレントな特徴を生成し、幾何に基づいて部品を意味的に区別する。
最適なトランスポートに基づくトレーニングフレームワークを提案し,キーポイントを超えた監視を可能にする。
GECOは軽量なアーキテクチャで30fps、98.2%の速度で動作している。
- 参考スコア(独自算出の注目度): 39.836873502825775
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Recent advances in feature learning have shown that self-supervised vision foundation models can capture semantic correspondences but often lack awareness of underlying 3D geometry. GECO addresses this gap by producing geometrically coherent features that semantically distinguish parts based on geometry (e.g., left/right eyes, front/back legs). We propose a training framework based on optimal transport, enabling supervision beyond keypoints, even under occlusions and disocclusions. With a lightweight architecture, GECO runs at 30 fps, 98.2% faster than prior methods, while achieving state-of-the-art performance on PFPascal, APK, and CUB, improving PCK by 6.0%, 6.2%, and 4.1%, respectively. Finally, we show that PCK alone is insufficient to capture geometric quality and introduce new metrics and insights for more geometry-aware feature learning. Link to project page: https://reginehartwig.github.io/publications/geco/
- Abstract(参考訳): 機能学習の最近の進歩は、自己教師付き視覚基盤モデルは意味的対応を捉えることができるが、基礎となる3次元幾何学の認識を欠くことが多いことを示している。
GECOはこのギャップに対処するため、幾何学に基づく部分(例えば、左右の目、前/後ろの脚)を意味的に区別する幾何学的コヒーレントな特徴を生成する。
最適輸送に基づくトレーニングフレームワークを提案し,キーポイントを超えて,排他的かつ排他的であっても,監視を可能にする。
軽量アーキテクチャでは、GECOは従来の手法よりも30fps、98.2%高速で動作し、PFPascal、APK、CUBで最先端のパフォーマンスを実現し、PCKをそれぞれ6.0%、6.2%、および4.1%改善した。
最後に,PCKだけでは幾何学的品質を捉えるには不十分であることが示され,さらに幾何学的特徴学習のための新しい指標と洞察が導入された。
プロジェクトページへのリンク: https://reginehartwig.github.io/publications/geco/
関連論文リスト
- C-DOG: Multi-View Multi-instance Feature Association Using Connected δ-Overlap Graphs [4.576442835703357]
C-DOG(Connected delta-Overlap Graph)は,ロバストな幾何学的特徴結合のためのアルゴリズムである。
C-DOGグラフでは、異なるビューから2D特徴点を表す2つのノードが、同じ3D点に対応する場合、エッジで接続される。
合成ベンチマークの実験では、C-DOGは幾何学ベースのベースラインアルゴリズムよりも優れているだけでなく、要求条件下でも非常に堅牢であることが示された。
論文 参考訳(メタデータ) (2025-07-18T17:23:45Z) - 3D-PointZshotS: Geometry-Aware 3D Point Cloud Zero-Shot Semantic Segmentation Narrowing the Visual-Semantic Gap [10.744510913722817]
3D-PointZshotSは、幾何学的なゼロショットセグメンテーションフレームワークである。
我々はLGPをクロスアテンション機構を介してジェネレータに統合し、微粒な幾何学的詳細で意味的特徴を豊かにする。
我々は、共有空間における視覚的特徴と意味的特徴を再表現し、意味と視覚的ギャップを埋め、未知のクラスへの知識伝達を促進する。
論文 参考訳(メタデータ) (2025-04-16T19:17:12Z) - GeoCalib: Learning Single-image Calibration with Geometric Optimization [89.84142934465685]
単一の画像から視覚的な手がかりは、焦点距離や重力方向などの内在的および外在的なカメラパラメータを推定するのに役立ちます。
この問題に対する現在のアプローチは、行と消滅点を持つ古典幾何学か、エンドツーエンドで訓練されたディープニューラルネットワークに基づいている。
最適化プロセスを通じて3次元幾何学の普遍的な規則を利用するディープニューラルネットワークであるGeoCalibを紹介する。
論文 参考訳(メタデータ) (2024-09-10T17:59:55Z) - Geometry-guided Feature Learning and Fusion for Indoor Scene Reconstruction [14.225228781008209]
本稿では3次元シーン再構成のための新しい幾何学的統合機構を提案する。
提案手法は,特徴学習,特徴融合,ネットワーク監視という3段階の3次元幾何学を取り入れている。
論文 参考訳(メタデータ) (2024-08-28T08:02:47Z) - SAGS: Structure-Aware 3D Gaussian Splatting [53.6730827668389]
本研究では,シーンの形状を暗黙的に符号化する構造認識型ガウス散乱法(SAGS)を提案する。
SAGSは、最先端のレンダリング性能と、ベンチマークノベルビュー合成データセットのストレージ要件の削減を反映している。
論文 参考訳(メタデータ) (2024-04-29T23:26:30Z) - Human as Points: Explicit Point-based 3D Human Reconstruction from Single-view RGB Images [71.91424164693422]
我々はHaPと呼ばれる明示的なポイントベース人間再構築フレームワークを導入する。
提案手法は,3次元幾何学空間における完全明示的な点雲推定,操作,生成,洗練が特徴である。
我々の結果は、完全に明示的で幾何学中心のアルゴリズム設計へのパラダイムのロールバックを示すかもしれない。
論文 参考訳(メタデータ) (2023-11-06T05:52:29Z) - Depth Completion using Geometry-Aware Embedding [22.333381291860498]
本稿では,幾何認識の埋め込みを効率的に学習する手法を提案する。
局所的および大域的な幾何学的構造情報を、例えば、シーンレイアウト、オブジェクトのサイズと形状などの3Dポイントから符号化し、深度推定を導く。
論文 参考訳(メタデータ) (2022-03-21T12:06:27Z) - Self-supervised Geometric Perception [96.89966337518854]
自己教師付き幾何知覚(self-supervised geometric perception)は、基底幾何モデルラベルなしで対応マッチングのための特徴記述子を学ぶためのフレームワークである。
また,SGPは,地上トラスラベルを用いて訓練した教師付きオークルよりも同等か優れる最先端性能を達成できることを示す。
論文 参考訳(メタデータ) (2021-03-04T15:34:43Z) - DSG-Net: Learning Disentangled Structure and Geometry for 3D Shape
Generation [98.96086261213578]
DSG-Netは3次元形状の非交叉構造と幾何学的メッシュ表現を学習するディープニューラルネットワークである。
これは、幾何(構造)を不変に保ちながら構造(幾何学)のような不整合制御を持つ新しい形状生成アプリケーションの範囲をサポートする。
本手法は,制御可能な生成アプリケーションだけでなく,高品質な合成形状を生成できる。
論文 参考訳(メタデータ) (2020-08-12T17:06:51Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。