論文の概要: Upsample Anything: A Simple and Hard to Beat Baseline for Feature Upsampling
- arxiv url: http://arxiv.org/abs/2511.16301v2
- Date: Mon, 24 Nov 2025 11:32:47 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-25 16:30:37.497391
- Title: Upsample Anything: A Simple and Hard to Beat Baseline for Feature Upsampling
- Title(参考訳): Upsample Anything:機能アップのためのベースラインに勝つのが簡単で難しい
- Authors: Minseok Seo, Mark Hamilton, Changick Kim,
- Abstract要約: Upsample Anythingは、低解像度の機能をトレーニングなしで高解像度のピクセル単位の出力に復元する。
224x224イメージあたりの$approx0.419テキストのみで動作し、セマンティックセグメンテーション、深さ推定、深さと確率マップのアップサンプリングにおける最先端のパフォーマンスを達成する。
- 参考スコア(独自算出の注目度): 38.24831571443335
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We present \textbf{Upsample Anything}, a lightweight test-time optimization (TTO) framework that restores low-resolution features to high-resolution, pixel-wise outputs without any training. Although Vision Foundation Models demonstrate strong generalization across diverse downstream tasks, their representations are typically downsampled by 14x/16x (e.g., ViT), which limits their direct use in pixel-level applications. Existing feature upsampling approaches depend on dataset-specific retraining or heavy implicit optimization, restricting scalability and generalization. Upsample Anything addresses these issues through a simple per-image optimization that learns an anisotropic Gaussian kernel combining spatial and range cues, effectively bridging Gaussian Splatting and Joint Bilateral Upsampling. The learned kernel acts as a universal, edge-aware operator that transfers seamlessly across architectures and modalities, enabling precise high-resolution reconstruction of features, depth, or probability maps. It runs in only $\approx0.419 \text{s}$ per 224x224 image and achieves state-of-the-art performance on semantic segmentation, depth estimation, and both depth and probability map upsampling. \textbf{Project page:} \href{https://seominseok0429.github.io/Upsample-Anything/}{https://seominseok0429.github.io/Upsample-Anything/}
- Abstract(参考訳): 我々は、低解像度の機能をトレーニングなしで高解像度のピクセル単位の出力に復元する軽量なテスト時間最適化(TTO)フレームワークである‘textbf{Upsample Anything} を提示する。
Vision Foundation Models は様々なダウンストリームタスクに対して強力な一般化を示すが、その表現は通常 14x/16x (例: ViT) でダウンサンプル化され、ピクセルレベルのアプリケーションでの使用が制限される。
既存の機能アップサンプリングアプローチは、データセット固有のリトレーニングや重い暗黙の最適化に依存し、スケーラビリティと一般化を制限する。
Upsample Anythingは、空間的および範囲的なキューを組み合わせた異方性ガウス核を学習し、ガウス的スティングとジョイントバイラテラルアップサンプリングを効果的にブリッジする単純な画像ごとの最適化によってこれらの問題に対処する。
学習されたカーネルは、アーキテクチャやモダリティをシームレスに移動し、特徴、深さ、確率マップの正確な高精度な再構築を可能にする、普遍的でエッジ対応の演算子として機能する。
224x224イメージあたりの$\approx0.419 \text{s}$でのみ動作し、セマンティックセグメンテーション、深さ推定、深さと確率マップのアップサンプリングにおける最先端のパフォーマンスを達成する。
\textbf{Project page:} \href{https://seominseok0429.github.io/Upsample-Anything/}{https://seominseok0429.github.io/Upsample-Anything/}
関連論文リスト
- Depth-Guided Bundle Sampling for Efficient Generalizable Neural Radiance Field Reconstruction [22.057122296909142]
高解像度画像は、すべての光線を高密度にサンプリングする必要があるため、計算集約的なままである。
レンダリングを高速化する新しい深度誘導型バンドルサンプリング戦略を提案する。
提案手法は最大1.27dBPSNRの改善とDTUデータセット上のFPSの47%増加を実現している。
論文 参考訳(メタデータ) (2025-05-26T10:23:59Z) - Lighten CARAFE: Dynamic Lightweight Upsampling with Guided Reassemble Kernels [18.729177307412645]
我々はDLU(Dynamic Lightweight Upsampling)と呼ばれる軽量なアップサンプリング動作を提案する。
いくつかのメインストリームのビジョンタスクの実験では、私たちのDLUはオリジナルのCARAFEに匹敵する、さらに優れたパフォーマンスを実現しています。
論文 参考訳(メタデータ) (2024-10-29T15:35:14Z) - A Refreshed Similarity-based Upsampler for Direct High-Ratio Feature Upsampling [54.05517338122698]
一般的な類似性に基づく機能アップサンプリングパイプラインが提案されている。
本稿では,セマンティック・アウェアとディテール・アウェアの両方の観点から,明示的に制御可能なクエリキー機能アライメントを提案する。
我々は,モーザイクアーティファクトを緩和する上ではシンプルだが有効であるHR特徴に対して,きめ細かな近傍選択戦略を開発する。
論文 参考訳(メタデータ) (2024-07-02T14:12:21Z) - Towards Efficient and Accurate CT Segmentation via Edge-Preserving Probabilistic Downsampling [2.1465347972460367]
限られたリソースやネットワークトレーニングの迅速化を必要とするイメージやラベルのダウンサンプリングは、小さなオブジェクトと薄いバウンダリの損失につながる。
これにより、セグメンテーションネットワークのイメージを正確に解釈し、詳細なラベルを予測する能力が損なわれ、元の解像度での処理と比較して性能が低下する。
エッジ保存型確率ダウンサンプリング(EPD)という新しい手法を提案する。
ローカルウィンドウ内のクラス不確実性を利用してソフトラベルを生成し、ウィンドウサイズがダウンサンプリング係数を規定する。
論文 参考訳(メタデータ) (2024-04-05T10:01:31Z) - CUF: Continuous Upsampling Filters [25.584630142930123]
本稿では,画像処理における最も重要な操作の一つとして,アップサンプリングについて考察する。
本稿では、アップサンプリングカーネルをニューラルネットワークとしてパラメータ化することを提案する。
このパラメータ化により、競合する任意のスケールの超解像アーキテクチャと比較して40倍のパラメータ数の削減が得られる。
論文 参考訳(メタデータ) (2022-10-13T12:45:51Z) - Toward Real-World Super-Resolution via Adaptive Downsampling Models [58.38683820192415]
本研究では,制約のある事前知識を伴わずに未知のサンプル処理をシミュレートする手法を提案する。
対の例を使わずに対象LR画像の分布を模倣する汎用化可能な低周波損失(LFL)を提案する。
論文 参考訳(メタデータ) (2021-09-08T06:00:32Z) - InfinityGAN: Towards Infinite-Resolution Image Synthesis [92.40782797030977]
任意の解像度画像を生成するinfinityganを提案する。
少ない計算資源でパッチバイパッチをシームレスに訓練し、推論する方法を示す。
論文 参考訳(メタデータ) (2021-04-08T17:59:30Z) - Learning Affinity-Aware Upsampling for Deep Image Matting [83.02806488958399]
アップサンプリングにおける学習親和性は、ディープ・ネットワークにおけるペアワイズ・インタラクションを効果的かつ効率的に利用するためのアプローチであることを示す。
特に、コンポジション1kマッチングデータセットの結果は、A2Uが強いベースラインに対してSAD測定値の14%の相対的な改善を達成していることを示している。
最先端のマッティングネットワークと比較すると、モデル複雑度は40%に過ぎず、8%高いパフォーマンスを実現しています。
論文 参考訳(メタデータ) (2020-11-29T05:09:43Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。