論文の概要: Learning to Upsample by Learning to Sample
- arxiv url: http://arxiv.org/abs/2308.15085v1
- Date: Tue, 29 Aug 2023 07:50:11 GMT
- ステータス: 処理完了
- システム内更新日: 2023-08-30 15:19:12.148407
- Title: Learning to Upsample by Learning to Sample
- Title(参考訳): サンプル学習によるサンプル化への学習
- Authors: Wenze Liu, Hao Lu, Hongtao Fu, Zhiguo Cao
- Abstract要約: 超軽量で効果的な動的アップサンプラーであるDySampleを提案する。
以前のカーネルベースの動的アップサンプラーと比較して、DySampleはカスタマイズされたパッケージを必要とせず、パラメータもはるかに少ない。
DySampleは5つの密集した予測タスクにおいて、他のアップサンプラーよりも優れています。
- 参考スコア(独自算出の注目度): 19.849631293898693
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We present DySample, an ultra-lightweight and effective dynamic upsampler.
While impressive performance gains have been witnessed from recent kernel-based
dynamic upsamplers such as CARAFE, FADE, and SAPA, they introduce much
workload, mostly due to the time-consuming dynamic convolution and the
additional sub-network used to generate dynamic kernels. Further, the need for
high-res feature guidance of FADE and SAPA somehow limits their application
scenarios. To address these concerns, we bypass dynamic convolution and
formulate upsampling from the perspective of point sampling, which is more
resource-efficient and can be easily implemented with the standard built-in
function in PyTorch. We first showcase a naive design, and then demonstrate how
to strengthen its upsampling behavior step by step towards our new upsampler,
DySample. Compared with former kernel-based dynamic upsamplers, DySample
requires no customized CUDA package and has much fewer parameters, FLOPs, GPU
memory, and latency. Besides the light-weight characteristics, DySample
outperforms other upsamplers across five dense prediction tasks, including
semantic segmentation, object detection, instance segmentation, panoptic
segmentation, and monocular depth estimation. Code is available at
https://github.com/tiny-smart/dysample.
- Abstract(参考訳): 超軽量で効果的な動的アップサンプラーであるDySampleを提案する。
CARAFE、FADE、SAPAといった最近のカーネルベースの動的アップサンプラーから顕著なパフォーマンス向上が見られる一方で、時間を要する動的畳み込みと、動的カーネルの生成に使用される追加のサブネットワークによって、多くのワークロードが導入されている。
さらに、FADEとSAPAの高解像度機能ガイダンスの必要性は、アプリケーションのシナリオを制限します。
これらの問題に対処するため、動的畳み込みを回避し、よりリソース効率が良く、PyTorchの標準内蔵関数で容易に実装できる点サンプリングの観点から定式化する。
まずは素直なデザインを示し、次に新しいアップサンプラーであるDySampleに向けて、そのアップサンプリング動作を強化する方法についてデモする。
以前のカーネルベースの動的アップサンプラーと比較して、DySampleはカスタマイズされたCUDAパッケージを必要とせず、パラメータ、FLOP、GPUメモリ、レイテンシがはるかに少ない。
軽量な特徴の他に、dysampleはセマンティクスセグメンテーション、オブジェクト検出、インスタンスセグメンテーション、panoptic segmentation、単眼深度推定を含む5つの密集した予測タスクで他のアップサンプラーを上回る。
コードはhttps://github.com/tiny-smart/dysampleで入手できる。
関連論文リスト
- Curvature Informed Furthest Point Sampling [0.0]
ファテスト点サンプリング(FPS)を強化する強化学習に基づくサンプリングアルゴリズムを提案する。
提案手法は,FPS由来のソフトランクと深部ニューラルネットワークによる曲率スコアを組み合わせることで,ポイントをランク付けする。
我々は,各特徴が性能に与える影響について,質的および定量的に考察した総合的アブレーション研究を提供する。
論文 参考訳(メタデータ) (2024-11-25T23:58:38Z) - Lighten CARAFE: Dynamic Lightweight Upsampling with Guided Reassemble Kernels [18.729177307412645]
我々はDLU(Dynamic Lightweight Upsampling)と呼ばれる軽量なアップサンプリング動作を提案する。
いくつかのメインストリームのビジョンタスクの実験では、私たちのDLUはオリジナルのCARAFEに匹敵する、さらに優れたパフォーマンスを実現しています。
論文 参考訳(メタデータ) (2024-10-29T15:35:14Z) - Dynamic Policy-Driven Adaptive Multi-Instance Learning for Whole Slide
Image Classification [26.896926631411652]
マルチインスタンスラーニング (MIL) は, バッグや疑似バッグを用いた病理組織像全体(WSI)解析において, 優れた性能を示した。
既存のMILベースの技術は、少なくとも1つ以上の問題に悩まされている: 1) 多数のインスタンスに対して高いストレージと集中的な事前処理を必要とすること(サンプリング)、2) バッグラベルを予測するための限られた知識を持つ潜在的な過剰適合(機能表現)、3) 擬似バグカウントと事前バイアスはモデルの堅牢性と一般化可能性(意思決定)に影響を与える。
論文 参考訳(メタデータ) (2024-03-09T04:43:24Z) - Dynamic Adapter Meets Prompt Tuning: Parameter-Efficient Transfer Learning for Point Cloud Analysis [51.14136878142034]
ポイントクラウド分析は、事前訓練されたモデルのポイントクラウドの転送によって、優れたパフォーマンスを実現している。
モデル適応のための既存の方法は通常、高い計算コストに依存するため、非効率な全てのモデルパラメータを更新する。
本稿では,タスク性能とパラメータ効率のトレードオフを考慮した,ポイントクラウド解析のためのパラメータ効率変換学習を提案する。
論文 参考訳(メタデータ) (2024-03-03T08:25:04Z) - Leveraging Speculative Sampling and KV-Cache Optimizations Together for Generative AI using OpenVINO [0.6144680854063939]
推論最適化は、ユーザーエクスペリエンスを改善し、インフラコストと消費電力を減らすために重要である。
本稿では,テキスト生成の全体的な遅延を低減するため,投機的サンプリングとして知られる動的実行の形式を説明する。
論文 参考訳(メタデータ) (2023-11-08T14:08:00Z) - On Point Affiliation in Feature Upsampling [32.28512034705838]
特徴アップサンプリングにポイントアフィリエイトの概念を導入する。
アップサンプリングされた点は、その低解像度デコーダの隣人や高解像度エンコーダの隣人に頼って、アフィリエイトを推論できることが示される。
この定式化は、新しくて軽量で普遍的なアップサンプリングソリューションを構成する。
論文 参考訳(メタデータ) (2023-07-17T01:59:14Z) - Instance-aware Dynamic Prompt Tuning for Pre-trained Point Cloud Models [64.49254199311137]
本稿では,事前学習点クラウドモデルのための新しいインスタンス対応動的プロンプトチューニング(IDPT)戦略を提案する。
IDPTの本質は、各ポイントクラウドインスタンスのセマンティックな事前特徴を知覚する動的プロンプト生成モジュールを開発することである。
実験では、IDPTはトレーニング可能なパラメータのわずか7%で、ほとんどのタスクにおいて完全な微調整よりも優れています。
論文 参考訳(メタデータ) (2023-04-14T16:03:09Z) - Adaptive Siamese Tracking with a Compact Latent Network [219.38172719948048]
追跡タスクを分類に変換することで,シームズをベースとしたトラッカーを簡易化する直感的なビューを提供する。
そこで本研究では,視覚シミュレーションと実追跡例を用いて,詳細な解析を行う。
そこで我々は,古典的なSiamRPN++,SiamFC,SiamBANの3つのトラッカーを調整した。
論文 参考訳(メタデータ) (2023-02-02T08:06:02Z) - Towards Automated Imbalanced Learning with Deep Hierarchical
Reinforcement Learning [57.163525407022966]
不均衡学習はデータマイニングにおいて基本的な課題であり、各クラスにトレーニングサンプルの不均等な比率が存在する。
オーバーサンプリングは、少数民族のための合成サンプルを生成することによって、不均衡な学習に取り組む効果的な手法である。
我々は,異なるレベルの意思決定を共同で最適化できる自動オーバーサンプリングアルゴリズムであるAutoSMOTEを提案する。
論文 参考訳(メタデータ) (2022-08-26T04:28:01Z) - BIMS-PU: Bi-Directional and Multi-Scale Point Cloud Upsampling [60.257912103351394]
我々はBIMS-PUと呼ばれる新しいポイント・クラウド・アップサンプリング・パイプラインを開発した。
対象のサンプリング因子を小さな因子に分解することにより,アップ/ダウンサンプリング手順をいくつかのアップ/ダウンサンプリングサブステップに分解する。
提案手法は最先端手法よりも優れた結果が得られることを示す。
論文 参考訳(メタデータ) (2022-06-25T13:13:37Z) - Oops I Took A Gradient: Scalable Sampling for Discrete Distributions [53.3142984019796]
このアプローチは、多くの困難な設定において、ジェネリックサンプリングよりも優れていることを示す。
また,高次元離散データを用いた深部エネルギーモデルトレーニングのための改良型サンプリング器についても実演した。
論文 参考訳(メタデータ) (2021-02-08T20:08:50Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。