論文の概要: MixRI: Mixing Features of Reference Images for Novel Object Pose Estimation
- arxiv url: http://arxiv.org/abs/2601.06883v1
- Date: Sun, 11 Jan 2026 12:12:08 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-13 19:08:01.051123
- Title: MixRI: Mixing Features of Reference Images for Novel Object Pose Estimation
- Title(参考訳): MixRI:新しいオブジェクトポス推定のための参照画像の混合特徴
- Authors: Xinhang Liu, Jiawei Shi, Zheng Dang, Yuchao Dai,
- Abstract要約: RGB画像におけるCADに基づく新しいオブジェクトポーズ推定問題を解決する軽量ネットワークMixRIを提案する。
実世界のアプリケーションのニーズを満たすためにネットワークを設計し、メモリ要求の低減と高速な推論時間を強調する。
- 参考スコア(独自算出の注目度): 51.065981526165
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We present MixRI, a lightweight network that solves the CAD-based novel object pose estimation problem in RGB images. It can be instantly applied to a novel object at test time without finetuning. We design our network to meet the demands of real-world applications, emphasizing reduced memory requirements and fast inference time. Unlike existing works that utilize many reference images and have large network parameters, we directly match points based on the multi-view information between the query and reference images with a lightweight network. Thanks to our reference image fusion strategy, we significantly decrease the number of reference images, thus decreasing the time needed to process these images and the memory required to store them. Furthermore, with our lightweight network, our method requires less inference time. Though with fewer reference images, experiments on seven core datasets in the BOP challenge show that our method achieves comparable results with other methods that require more reference images and larger network parameters.
- Abstract(参考訳): RGB画像におけるCADに基づく新しいオブジェクトポーズ推定問題を解決する軽量ネットワークMixRIを提案する。
テスト時には、微調整なしで、新しいオブジェクトに即座に適用することができる。
実世界のアプリケーションのニーズを満たすためにネットワークを設計し、メモリ要求の低減と高速な推論時間を強調する。
多くの参照画像を利用し、大きなネットワークパラメータを持つ既存の作業とは異なり、クエリと参照画像のマルチビュー情報に基づいて、軽量なネットワークでポイントを直接マッチングする。
参照画像融合戦略により、参照画像の数を大幅に削減し、これらの画像の処理に必要な時間と保存に必要なメモリを削減した。
さらに、私たちの軽量ネットワークでは、推論時間が少なくなります。
参照画像が少ないにもかかわらず、BOPチャレンジにおける7つのコアデータセットの実験により、より参照画像やより大きなネットワークパラメータを必要とする他の手法と同等の結果が得られることが示された。
関連論文リスト
- Beyond Learned Metadata-based Raw Image Reconstruction [86.1667769209103]
生画像は、線形性や微細な量子化レベルなど、sRGB画像に対して明確な利点がある。
ストレージの要求が大きいため、一般ユーザからは広く採用されていない。
本稿では,メタデータとして,潜在空間におけるコンパクトな表現を学習する新しいフレームワークを提案する。
論文 参考訳(メタデータ) (2023-06-21T06:59:07Z) - Raw Image Reconstruction with Learned Compact Metadata [61.62454853089346]
本稿では,メタデータとしての潜在空間におけるコンパクトな表現をエンドツーエンドで学習するための新しいフレームワークを提案する。
提案する生画像圧縮方式は,グローバルな視点から重要な画像領域に適応的により多くのビットを割り当てることができることを示す。
論文 参考訳(メタデータ) (2023-02-25T05:29:45Z) - Correlation Verification for Image Retrieval [15.823918683848877]
相関検証ネットワーク (CVNet) という新しい画像検索手法を提案する。
CVNetは、様々な画像対から多様な幾何マッチングパターンを学習しながら、高密度特徴相関を画像類似性に圧縮する。
提案するネットワークは,有意なマージンを有する複数の検索ベンチマークにおいて,最先端の性能を示す。
論文 参考訳(メタデータ) (2022-04-04T13:18:49Z) - Searching for Controllable Image Restoration Networks [57.23583915884236]
既存の方法は各出力毎にネットワーク全体を通して別々の推論を必要とする。
本稿では,複数の画像効果を効率的に生成できるニューラルアーキテクチャ探索手法に基づく新しい枠組みを提案する。
論文 参考訳(メタデータ) (2020-12-21T10:08:18Z) - High Quality Remote Sensing Image Super-Resolution Using Deep Memory
Connected Network [21.977093907114217]
単一画像の超解像は、ターゲット検出や画像分類といった多くの用途において重要である。
本稿では,畳み込みニューラルネットワークによる高画質超解像画像の再構成手法として,DeepMemory Connected Network (DMCN)を提案する。
論文 参考訳(メタデータ) (2020-10-01T15:06:02Z) - CRNet: Cross-Reference Networks for Few-Shot Segmentation [59.85183776573642]
少ないショットセグメンテーションは、少数のトレーニングイメージを持つ新しいクラスに一般化できるセグメンテーションモデルを学ぶことを目的としている。
相互参照機構により、我々のネットワークは2つの画像に共起する物体をよりよく見つけることができる。
PASCAL VOC 2012データセットの実験は、我々のネットワークが最先端のパフォーマンスを達成することを示す。
論文 参考訳(メタデータ) (2020-03-24T04:55:43Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。