論文の概要: Disentanglement of Color and Shape Representations for Continual
Learning
- arxiv url: http://arxiv.org/abs/2007.06356v1
- Date: Mon, 13 Jul 2020 13:05:45 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-11 00:17:22.145001
- Title: Disentanglement of Color and Shape Representations for Continual
Learning
- Title(参考訳): 連続学習のための色と形状表現の絡み合い
- Authors: David Berga, Marc Masana and Joost Van de Weijer
- Abstract要約: ネットワークアーキテクチャの調整により,色と形状の明示的な歪曲を行う。
特徴の絡み合いは連続学習性能に肯定的な影響を及ぼすことを示す。
- 参考スコア(独自算出の注目度): 35.9011371989035
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We hypothesize that disentangled feature representations suffer less from
catastrophic forgetting. As a case study we perform explicit disentanglement of
color and shape, by adjusting the network architecture. We tested
classification accuracy and forgetting in a task-incremental setting with
Oxford-102 Flowers dataset. We combine our method with Elastic Weight
Consolidation, Learning without Forgetting, Synaptic Intelligence and Memory
Aware Synapses, and show that feature disentanglement positively impacts
continual learning performance.
- Abstract(参考訳): 我々は、不連続な特徴表現は破滅的な忘れに苦しむことが少なくなると仮定する。
ケーススタディとして,ネットワークアーキテクチャを調整し,色と形状の明瞭な絡み合いを行う。
オックスフォード102フラワースデータセットを用いたタスクインクリメンタル設定において,分類精度を検証した。
提案手法と弾力的重み強化, フォーッティングなし学習, シナプティックインテリジェンス, メモリ・アウェア・シナプスを組み合わせることで, 特徴の絡み合いが連続学習性能に肯定的な影響を及ぼすことを示す。
関連論文リスト
- Impact of Label Noise on Learning Complex Features [0.5249805590164901]
事前学習は,ノイズの存在下での学習の複雑な機能や多様な特徴を促進することを示す。
実験により,ノイズラベルによる事前学習は,勾配降下を促進させ,代替のミニマを見つけることを実証した。
論文 参考訳(メタデータ) (2024-11-07T09:47:18Z) - Exploring Color Invariance through Image-Level Ensemble Learning [7.254270666779331]
本研究ではランダムカラー消去という学習戦略を紹介する。
元の画像構造を乱すことなく、トレーニングデータの部分的又は完全な色情報を選択的に消去する。
このアプローチは、過剰適合のリスクを軽減し、色の変化を処理するモデルの能力を強化する。
論文 参考訳(メタデータ) (2024-01-19T06:04:48Z) - Noisy Correspondence Learning with Self-Reinforcing Errors Mitigation [63.180725016463974]
クロスモーダル検索は、実際は精力的な、十分に整合した大規模データセットに依存している。
我々は、新しい雑音対応学習フレームワーク、textbfSelf-textbfReinforcing textbfErrors textbfMitigation(SREM)を導入する。
論文 参考訳(メタデータ) (2023-12-27T09:03:43Z) - PointMoment:Mixed-Moment-based Self-Supervised Representation Learning
for 3D Point Clouds [11.980787751027872]
我々は,ポイントクラウドによる自己教師型表現学習のための新しいフレームワークであるPointMomentを提案する。
我々のフレームワークは、非対称ネットワークアーキテクチャや勾配停止など特別な技術を必要としない。
論文 参考訳(メタデータ) (2023-12-06T08:49:55Z) - Imposing Consistency for Optical Flow Estimation [73.53204596544472]
プロキシタスクによる一貫性の導入は、データ駆動学習を強化することが示されている。
本稿では,光フロー推定のための新しい,効果的な整合性戦略を提案する。
論文 参考訳(メタデータ) (2022-04-14T22:58:30Z) - Joint Learning of Feature Extraction and Cost Aggregation for Semantic
Correspondence [30.488870941738636]
意味対応のための特徴抽出とコスト集約を共同で学習する新しいフレームワークを提案する。
ネットワークを弱教師付きで学習するための信頼度を考慮したコントラスト損失関数を提案する。
論文 参考訳(メタデータ) (2022-04-05T12:45:49Z) - A Scaling Law for Synthetic-to-Real Transfer: A Measure of Pre-Training [52.93808218720784]
合成から現実への変換学習は,実タスクのための合成画像と接地真実アノテーションを用いた事前学習を行うフレームワークである。
合成画像はデータの不足を克服するが、事前訓練されたモデルで微調整性能がどのようにスケールするかは定かではない。
我々は、合成事前学習データの様々なタスク、モデル、複雑さにおける学習曲線を一貫して記述する、単純で一般的なスケーリング法則を観察する。
論文 参考訳(メタデータ) (2021-08-25T02:29:28Z) - A Framework using Contrastive Learning for Classification with Noisy
Labels [1.2891210250935146]
雑音ラベルの存在下で画像分類を行うために,コントラスト学習を事前学習タスクとして利用するフレームワークを提案する。
擬似ラベル, ガウス混合モデルを用いたサンプル選択, 重み付き教師付きコントラスト学習などの近年の戦略は, 事前学習後の微調整相に組み合わされている。
論文 参考訳(メタデータ) (2021-04-19T18:51:22Z) - Learning perturbation sets for robust machine learning [97.6757418136662]
我々は、潜在空間の制約領域上に設定された摂動を定義する条件生成器を用いる。
学習した摂動集合の質を定量的かつ質的に測定する。
我々は、学習した摂動集合を利用して、敵画像の破損や逆光の変動に対して経験的かつ確実に堅牢なモデルを訓練する。
論文 参考訳(メタデータ) (2020-07-16T16:39:54Z) - Learning What Makes a Difference from Counterfactual Examples and
Gradient Supervision [57.14468881854616]
ニューラルネットワークの一般化能力を改善するための補助的学習目標を提案する。
我々は、異なるラベルを持つ最小差の例のペア、すなわち反ファクトまたはコントラストの例を使用し、タスクの根底にある因果構造を示す信号を与える。
このテクニックで訓練されたモデルは、配布外テストセットのパフォーマンスを向上させる。
論文 参考訳(メタデータ) (2020-04-20T02:47:49Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。