論文の概要: Black-box Unsupervised Domain Adaptation with Bi-directional
Atkinson-Shiffrin Memory
- arxiv url: http://arxiv.org/abs/2308.13236v1
- Date: Fri, 25 Aug 2023 08:06:48 GMT
- ステータス: 処理完了
- システム内更新日: 2023-08-28 14:41:41.844178
- Title: Black-box Unsupervised Domain Adaptation with Bi-directional
Atkinson-Shiffrin Memory
- Title(参考訳): 双方向アトキンソン-シフリンメモリを用いたブラックボックス非教師付きドメイン適応
- Authors: Jingyi Zhang, Jiaxing Huang, Xueying Jiang, Shijian Lu
- Abstract要約: Black-box Unsupervised Domain adaptation (UDA)は、トレーニング中にソースデータまたはソースモデルにアクセスすることなく、ターゲットデータのソース予測で学習する。
両方向の記憶機構であるBiMemを提案する。
BiMemは、画像分類、セマンティックセグメンテーション、オブジェクト検出など、さまざまな視覚的タスクに一貫して優れたドメイン適応性能を実現する。
- 参考スコア(独自算出の注目度): 59.51934126717572
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Black-box unsupervised domain adaptation (UDA) learns with source predictions
of target data without accessing either source data or source models during
training, and it has clear superiority in data privacy and flexibility in
target network selection. However, the source predictions of target data are
often noisy and training with them is prone to learning collapses. We propose
BiMem, a bi-directional memorization mechanism that learns to remember useful
and representative information to correct noisy pseudo labels on the fly,
leading to robust black-box UDA that can generalize across different visual
recognition tasks. BiMem constructs three types of memory, including sensory
memory, short-term memory, and long-term memory, which interact in a
bi-directional manner for comprehensive and robust memorization of learnt
features. It includes a forward memorization flow that identifies and stores
useful features and a backward calibration flow that rectifies features' pseudo
labels progressively. Extensive experiments show that BiMem achieves superior
domain adaptation performance consistently across various visual recognition
tasks such as image classification, semantic segmentation and object detection.
- Abstract(参考訳): Black-box Unsupervised Domain adaptation (UDA)は、トレーニング中にソースデータまたはソースモデルにアクセスすることなく、ターゲットデータのソース予測によって学習する。
しかし、ターゲットデータのソース予測はノイズが多く、それらのトレーニングは崩壊を学習する傾向にある。
両方向の記憶機構であるBiMemを提案する。この機構は,ノイズの多い擬似ラベルをオンザフライで修正するための有用な情報と代表的な情報を記憶し,様々な視覚認識タスクを一般化する堅牢なブラックボックスUDAを実現する。
BiMemは、感覚記憶、短期記憶、長期記憶を含む3種類のメモリを構築し、学習した特徴の包括的で堅牢な記憶のために双方向に相互作用する。
有用な特徴を特定し保存する前方記憶フローと、機能の擬似ラベルを徐々に修正する後方校正フローが含まれる。
画像分類やセマンティックセグメンテーション,オブジェクト検出など,さまざまな視覚認識タスクにおいて,BiMemは優れたドメイン適応性能を実現している。
関連論文リスト
- Saliency-Augmented Memory Completion for Continual Learning [8.243137410556495]
忘れる方法は、継続的な学習に対処しなければならない問題である。
本稿では,連続学習のための新たなサリエンシ強化メモリ補完フレームワークを提案する。
論文 参考訳(メタデータ) (2022-12-26T18:06:39Z) - Pin the Memory: Learning to Generalize Semantic Segmentation [68.367763672095]
本稿ではメタラーニングフレームワークに基づくセマンティックセグメンテーションのための新しいメモリ誘導ドメイン一般化手法を提案する。
本手法は,セマンティッククラスの概念的知識を,ドメインを超えて一定であるカテゴリ記憶に抽象化する。
論文 参考訳(メタデータ) (2022-04-07T17:34:01Z) - Memory-Guided Semantic Learning Network for Temporal Sentence Grounding [55.31041933103645]
本稿では,TSGタスクにおいて稀に出現しないコンテンツを学習し,記憶するメモリ拡張ネットワークを提案する。
MGSL-Netは、クロスモーダル・インターアクション・モジュール、メモリ拡張モジュール、異種アテンション・モジュールの3つの主要な部分で構成されている。
論文 参考訳(メタデータ) (2022-01-03T02:32:06Z) - Memory Wrap: a Data-Efficient and Interpretable Extension to Image
Classification Models [9.848884631714451]
Memory Wrapは、任意の画像分類モデルのプラグアンドプレイ拡張である。
データ効率性とモデル解釈性の両方を改善し、コンテンツアテンションメカニズムを採用する。
メモリラップは,限られたデータ集合から学習すると,標準的な分類器よりも優れることを示す。
論文 参考訳(メタデータ) (2021-06-01T07:24:19Z) - Memory-Associated Differential Learning [10.332918082271153]
メモリ関連微分学習(MAD)と呼ばれる新しい学習パラダイムを提案する。
まず,すべてのトレーニングデータを記憶するためにメモリと呼ばれる追加コンポーネントを導入する。次に,差分方程式といくつかのサンプリング手法の組み合わせによる特徴の関連性だけでなく,ラベルの違いも学習する。
評価フェーズでは,記憶された事実と学習した相違点および関連点を幾何学的に意味のある方法で参照することにより,未知のラベルを予測する。
論文 参考訳(メタデータ) (2021-02-10T03:48:12Z) - HM4: Hidden Markov Model with Memory Management for Visual Place
Recognition [54.051025148533554]
自律運転における視覚的位置認識のための隠れマルコフモデルを提案する。
我々のアルゴリズムはHM$4$と呼ばれ、時間的ルックアヘッドを利用して、有望な候補画像をパッシブストレージとアクティブメモリ間で転送する。
固定被覆領域に対して一定の時間と空間推定が可能であることを示す。
論文 参考訳(メタデータ) (2020-11-01T08:49:24Z) - Learning to Learn Variational Semantic Memory [132.39737669936125]
我々はメタラーニングに変分セマンティックメモリを導入し、数ショットラーニングのための長期的知識を得る。
セマンティックメモリはスクラッチから成長し、経験したタスクから情報を吸収することで徐々に統合される。
アドレスコンテンツから潜在記憶変数の変動推論としてメモリリコールを定式化する。
論文 参考訳(メタデータ) (2020-10-20T15:05:26Z) - Memory-based Jitter: Improving Visual Recognition on Long-tailed Data
with Diversity In Memory [39.56214005885884]
メモリベースジッター(MBJ)と呼ばれるシンプルで信頼性の高い手法を導入する。
MBJは2つの基本的な視覚認識タスク、すなわち深部画像分類と深部メートル法学習に適用できる。
5つの長い尾の分類ベンチマークと2つの深いメートル法学習ベンチマークの実験は、大幅な改善を示している。
論文 参考訳(メタデータ) (2020-08-22T11:01:46Z) - Learning and Memorizing Representative Prototypes for 3D Point Cloud
Semantic and Instance Segmentation [117.29799759864127]
3Dポイントクラウドセマンティクスとインスタンスセグメンテーションは、3Dシーン理解にとって不可欠で基本である。
深層ネットワークは、学習過程における非支配的なケースを忘れやすく、不満足なパフォーマンスをもたらす。
本稿では,多様なサンプルを普遍的にカバーする代表プロトタイプを学習し,記憶するメモリ拡張ネットワークを提案する。
論文 参考訳(メタデータ) (2020-01-06T01:07:46Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。