論文の概要: Meta-Optimization for Higher Model Generalizability in Single-Image
Depth Prediction
- arxiv url: http://arxiv.org/abs/2305.07269v2
- Date: Tue, 30 Jan 2024 08:49:14 GMT
- ステータス: 処理完了
- システム内更新日: 2024-01-31 19:43:24.890038
- Title: Meta-Optimization for Higher Model Generalizability in Single-Image
Depth Prediction
- Title(参考訳): 単一画像深度予測における高次モデル一般化のためのメタ最適化
- Authors: Cho-Ying Wu, Yiqi Zhong, Junying Wang, Ulrich Neumann
- Abstract要約: 我々は、勾配に基づくメタラーニングを活用し、ゼロショットのクロスデータセット推論における高い一般化性を実現する。
メタラーニングにおける最も研究されている画像分類とは異なり、深度はピクセルレベルの連続範囲値である。
メタ最適化において,各RGB-Dペアをタスクとして扱う,きめ細かいタスクを提案する。
- 参考スコア(独自算出の注目度): 19.469860191876876
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Model generalizability to unseen datasets, concerned with in-the-wild
robustness, is less studied for indoor single-image depth prediction. We
leverage gradient-based meta-learning for higher generalizability on zero-shot
cross-dataset inference. Unlike the most-studied image classification in
meta-learning, depth is pixel-level continuous range values, and mappings from
each image to depth vary widely across environments. Thus no explicit task
boundaries exist. We instead propose fine-grained task that treats each RGB-D
pair as a task in our meta-optimization. We first show meta-learning on limited
data induces much better prior (max +29.4\%). Using meta-learned weights as
initialization for following supervised learning, without involving extra data
or information, it consistently outperforms baselines without the method.
Compared to most indoor-depth methods that only train/ test on a single
dataset, we propose zero-shot cross-dataset protocols, closely evaluate
robustness, and show consistently higher generalizability and accuracy by our
meta-initialization. The work at the intersection of depth and meta-learning
potentially drives both research streams to step closer to practical use.
- Abstract(参考訳): 室内での単一画像深度予測において,非表示データセットに対するモデル一般化可能性について検討した。
我々は,ゼロショットクロスデータセット推論の一般化性を高めるために,勾配に基づくメタ学習を利用する。
メタラーニングで最も研究されている画像分類とは異なり、深度はピクセルレベルの連続範囲値であり、各画像から深度へのマッピングは環境によって大きく異なる。
したがって、明確なタスク境界は存在しない。
代わりに、メタ最適化において各RGB-Dペアをタスクとして扱う、きめ細かいタスクを提案する。
まず、制限されたデータに対するメタ学習により、より優れた事前学習(max +29.4\%)がもたらされることを示す。
メタ学習重みを教師付き学習の初期化として使用し、余分なデータや情報を含まないまま、その手法なしでベースラインを一貫して上回る。
単一のデータセットでのみトレーニング/テストを行う屋内深層手法と比較し,ゼロショットクロスデータセットプロトコルを提案し,ロバスト性を評価し,メタ初期化による高い一般化性と正確性を示す。
深度とメタラーニングの交差点での作業は、両方の研究の流れを実用に近づける可能性がある。
関連論文リスト
- Boosting Generalizability towards Zero-Shot Cross-Dataset Single-Image Indoor Depth by Meta-Initialization [17.822554284161868]
我々は、勾配に基づくメタラーニングを用いて、ゼロショットのクロスデータセット推論における高い一般化性を得る。
我々は、ゼロショットのクロスデータセットプロトコルを提案し、メタ初期化によって誘導される高い一般化性を検証した。
論文 参考訳(メタデータ) (2024-09-04T07:25:50Z) - Msmsfnet: a multi-stream and multi-scale fusion net for edge detection [6.1932429715357165]
エッジ検出は、コンピュータビジョンにおける長年の問題である。
最近のディープラーニングベースのアルゴリズムは、公開データセットで最先端のパフォーマンスを実現する。
しかし、それらのパフォーマンスは、ImageNetデータセット上のバックボーンネットワークのトレーニング済みの重みに大きく依存している。
論文 参考訳(メタデータ) (2024-04-07T08:03:42Z) - Data-Efficient Contrastive Language-Image Pretraining: Prioritizing Data Quality over Quantity [11.414069074535007]
大規模な画像キャプチャデータセットを用いたコントラスト言語-画像事前学習は、目覚ましいゼロショットの一般化を実現するための表現を学ぶ。
ベストを確実に一般化するトレーニングデータの小さなサブセットは、未解決の問題のままである。
画像とキャプションの相互共分散を密に保存する部分集合は、より優れた一般化性能が得られることを示す。
論文 参考訳(メタデータ) (2024-03-18T21:32:58Z) - Rethinking Transformers Pre-training for Multi-Spectral Satellite
Imagery [78.43828998065071]
教師なし学習の最近の進歩は、下流タスクにおける有望な結果を達成するための大きな視覚モデルの可能性を示している。
このような事前学習技術は、大量の未学習データが利用可能であることから、リモートセンシング領域でも最近研究されている。
本稿では,マルチモーダルで効果的に活用されるマルチスケール情報の事前学習と活用について述べる。
論文 参考訳(メタデータ) (2024-03-08T16:18:04Z) - Beyond Simple Meta-Learning: Multi-Purpose Models for Multi-Domain,
Active and Continual Few-Shot Learning [41.07029317930986]
低ラベル方式で動作するモデルの分散感応クラスを提案する。
最初の手法であるSimple CNAPSは階層的に正規化されたマハラノビス距離に基づく分類器を用いる。
我々はさらに、このアプローチをトランスダクティブ学習環境に拡張し、トランスダクティブCNAPSを提案する。
論文 参考訳(メタデータ) (2022-01-13T18:59:02Z) - Memory Efficient Meta-Learning with Large Images [62.70515410249566]
数ショットの分類に対するメタ学習アプローチは、新しいタスクを学ぶために、ほんの数ステップの最適化やシングルフォワードパスを必要とするテスト時に計算的に効率的である。
この制限は、最大1000のイメージを含むタスクの全体サポートセットが、最適化ステップを取る前に処理されなければならないために生じる。
本稿では,1つのGPU上の大容量画像からなる大規模タスクのメタトレーニングを可能にする,汎用的でメモリ効率の良いエピソード・トレーニング手法であるLITEを提案する。
論文 参考訳(メタデータ) (2021-07-02T14:37:13Z) - Revisiting Contrastive Methods for Unsupervised Learning of Visual
Representations [78.12377360145078]
対照的な自己教師型学習は、セグメンテーションやオブジェクト検出といった多くの下流タスクにおいて教師付き事前訓練よりも優れています。
本稿では,データセットのバイアスが既存手法にどのように影響するかを最初に検討する。
現在のコントラストアプローチは、(i)オブジェクト中心対シーン中心、(ii)一様対ロングテール、(iii)一般対ドメイン固有データセットなど、驚くほどうまく機能することを示す。
論文 参考訳(メタデータ) (2021-06-10T17:59:13Z) - Multi-dataset Pretraining: A Unified Model for Semantic Segmentation [97.61605021985062]
我々は、異なるデータセットの断片化アノテーションを最大限に活用するために、マルチデータセット事前訓練と呼ばれる統合フレームワークを提案する。
これは、複数のデータセットに対して提案されたピクセルからプロトタイプへのコントラスト損失を通じてネットワークを事前トレーニングすることで実現される。
異なるデータセットからの画像とクラス間の関係をより良くモデル化するために、クロスデータセットの混合によりピクセルレベルの埋め込みを拡張する。
論文 参考訳(メタデータ) (2021-06-08T06:13:11Z) - Learning to Generalize Unseen Domains via Memory-based Multi-Source
Meta-Learning for Person Re-Identification [59.326456778057384]
本稿では,メモリベースのマルチソースメタラーニングフレームワークを提案する。
また,メタテスト機能を多様化するメタバッチ正規化層(MetaBN)を提案する。
実験により、M$3$Lは、目に見えない領域に対するモデルの一般化能力を効果的に向上できることが示された。
論文 参考訳(メタデータ) (2020-12-01T11:38:16Z) - Incremental Meta-Learning via Indirect Discriminant Alignment [118.61152684795178]
メタ学習のメタ学習段階において,段階的な学習の概念を発達させる。
我々のアプローチは、完全なメタトレーニングセットでモデルをトレーニングするのと比べて、テスト時に好適に機能する。
論文 参考訳(メタデータ) (2020-02-11T01:39:12Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。