論文の概要: Learning When and Where to Zoom with Deep Reinforcement Learning
- arxiv url: http://arxiv.org/abs/2003.00425v2
- Date: Mon, 20 Apr 2020 18:25:16 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-27 13:03:07.688403
- Title: Learning When and Where to Zoom with Deep Reinforcement Learning
- Title(参考訳): 深層強化学習によるズームの時間と場所の学習
- Authors: Burak Uzkent, Stefano Ermon
- Abstract要約: そこで本稿では,高解像度のデータをペアで,安価で低解像度の画像に対していつ,どこで使用・取得するかを識別する強化学習手法を提案する。
我々は、CIFAR10、CIFAR100、ImageNet、fMoWデータセット上で実験を行い、全高解像度画像を使用するモデルと同等の精度を維持しながら、非常に少ない高解像度データを使用する。
- 参考スコア(独自算出の注目度): 101.79271767464947
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: While high resolution images contain semantically more useful information
than their lower resolution counterparts, processing them is computationally
more expensive, and in some applications, e.g. remote sensing, they can be much
more expensive to acquire. For these reasons, it is desirable to develop an
automatic method to selectively use high resolution data when necessary while
maintaining accuracy and reducing acquisition/run-time cost. In this direction,
we propose PatchDrop a reinforcement learning approach to dynamically identify
when and where to use/acquire high resolution data conditioned on the paired,
cheap, low resolution images. We conduct experiments on CIFAR10, CIFAR100,
ImageNet and fMoW datasets where we use significantly less high resolution data
while maintaining similar accuracy to models which use full high resolution
images.
- Abstract(参考訳): 高解像度画像は、低解像度画像よりも意味的に有用な情報を含んでいるが、処理は計算コストが高く、例えばリモートセンシングのようなアプリケーションでは、取得するコストがはるかに高くなる可能性がある。
このため、精度を維持しつつ、取得・実行コストを低減しつつ、必要に応じて高解像度データを選択的に使用する自動手法を開発することが望ましい。
そこで本研究では,PatchDropを用いて,高解像度データを高解像度かつ安価で低解像度の画像に対して動的に取得する手法を提案する。
我々は、CIFAR10、CIFAR100、ImageNet、fMoWデータセット上で実験を行い、全高解像度画像を使用するモデルと同等の精度を維持しながら、非常に少ない高解像度データを使用する。
関連論文リスト
- Supersampling of Data from Structured-light Scanner with Deep Learning [1.6385815610837167]
2つのディープラーニングモデルFDSRとDKNは、高解像度のデータを扱うように修正される。
得られた高分解能深度マップは定性的および定量的な測定値を用いて評価される。
論文 参考訳(メタデータ) (2023-11-13T16:04:41Z) - Recurrent Multi-scale Transformer for High-Resolution Salient Object
Detection [68.65338791283298]
Salient Object Detection (SOD) は、画像やビデオの中で最も顕著なオブジェクトを識別し、セグメント化することを目的としている。
従来のSOD法は主に解像度の低い画像に限られており、高分解能SODの開発に適応することが困難である。
本研究ではまず,2K-8K解像度で10,500個の高品質なアノテート画像を含む新しいHRS10Kデータセットを提案する。
論文 参考訳(メタデータ) (2023-08-07T17:49:04Z) - Efficient High-Resolution Deep Learning: A Survey [90.76576712433595]
スマートフォン、衛星、医療機器などの現代の機器のカメラは、非常に高解像度の画像やビデオを撮影することができる。
このような高解像度データは、がん検出、自動道路ナビゲーション、天気予報、監視、農業プロセスの最適化、その他多くの応用のためのディープラーニングモデルによって処理される。
ディープラーニングモデルの直接入力として高解像度の画像とビデオを使用することで、パラメータの多さ、計算コスト、推論レイテンシ、GPUメモリ使用量など、多くの課題が生じる。
文献におけるいくつかの研究は、高解像度データの課題に対処し、ハードウェアの制限に従いながら精度とスピードを改善するために、より良い代替案を提案する。
論文 参考訳(メタデータ) (2022-07-26T17:13:53Z) - Dynamic Low-Resolution Distillation for Cost-Efficient End-to-End Text
Spotting [49.33891486324731]
コスト効率の高い動的低分解能蒸留(DLD)テキストスポッティングフレームワークを提案する。
それは、小さなが認識可能な解像度で画像を推測し、精度と効率のバランスを改善することを目的としている。
提案手法はエンド・ツー・エンドを最適化し,既存のテキストスポッティング・フレームワークに実装することで,実践性を向上させる。
論文 参考訳(メタデータ) (2022-07-14T06:49:59Z) - High Quality Segmentation for Ultra High-resolution Images [72.97958314291648]
超高分解能セグメンテーション精錬作業のための連続精細モデルを提案する。
提案手法は画像分割精細化において高速かつ効果的である。
論文 参考訳(メタデータ) (2021-11-29T11:53:06Z) - A new public Alsat-2B dataset for single-image super-resolution [1.284647943889634]
本稿では,低空間解像度画像(10m, 2.5m)と高空間解像度画像(10m, 2.5m)の新たなリモートセンシングデータセット(Alsat2B)を提案する。
パンシャープ化により高分解能画像を得る。
その結果,提案手法は有望であり,データセットの課題を強調していることがわかった。
論文 参考訳(メタデータ) (2021-03-21T10:47:38Z) - Efficient Poverty Mapping using Deep Reinforcement Learning [75.6332944247741]
高解像度衛星画像と機械学習は多くのサステナビリティ関連タスクで有用であることが証明されている。
高解像度画像によって得られる精度は、そのような画像が大規模に購入するのに非常にコストがかかるため、コストがかかる。
コストの高い高解像度画像の取得場所を動的に識別するために,自由な低解像度画像を用いる強化学習手法を提案する。
論文 参考訳(メタデータ) (2020-06-07T18:30:57Z) - ImagePairs: Realistic Super Resolution Dataset via Beam Splitter Camera
Rig [13.925480922578869]
実画像データセットを収集するための新しいデータ取得手法を提案する。
我々はビームスプリッターを用いて、低解像度カメラと高解像度カメラで同じシーンを撮影する。
これらのタスクに使用される現在の小規模データセットとは異なり、提案データセットは11,421対の低解像度高解像度画像を含んでいる。
論文 参考訳(メタデータ) (2020-04-18T03:06:41Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。