論文の概要: Self-Challenging Improves Cross-Domain Generalization
- arxiv url: http://arxiv.org/abs/2007.02454v1
- Date: Sun, 5 Jul 2020 21:42:26 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-13 08:04:35.764623
- Title: Self-Challenging Improves Cross-Domain Generalization
- Title(参考訳): セルフチャリングはクロスドメインの一般化を改善する
- Authors: Zeyi Huang and Haohan Wang and Eric P. Xing and Dong Huang
- Abstract要約: 畳み込みニューラルネットワーク(CNN)は、ラベルと相関する支配的特徴を活性化することにより、画像分類を行う。
ドメイン外データに対するCNNの一般化を著しく改善する簡単なトレーニングである自己整合表現(RSC)を導入する。
RSCはトレーニングデータ上で活性化される主要な機能に対して反復的に挑戦し、ラベルと相関する残りの機能を有効にするようネットワークに強制する。
- 参考スコア(独自算出の注目度): 81.99554996975372
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Convolutional Neural Networks (CNN) conduct image classification by
activating dominant features that correlated with labels. When the training and
testing data are under similar distributions, their dominant features are
similar, which usually facilitates decent performance on the testing data. The
performance is nonetheless unmet when tested on samples from different
distributions, leading to the challenges in cross-domain image classification.
We introduce a simple training heuristic, Representation Self-Challenging
(RSC), that significantly improves the generalization of CNN to the
out-of-domain data. RSC iteratively challenges (discards) the dominant features
activated on the training data, and forces the network to activate remaining
features that correlates with labels. This process appears to activate feature
representations applicable to out-of-domain data without prior knowledge of new
domain and without learning extra network parameters. We present theoretical
properties and conditions of RSC for improving cross-domain generalization. The
experiments endorse the simple, effective and architecture-agnostic nature of
our RSC method.
- Abstract(参考訳): 畳み込みニューラルネットワーク(CNN)は、ラベルと相関する支配的特徴を活性化することによって画像分類を行う。
トレーニングデータとテストデータが同様の分布下にある場合、その主な機能は類似しており、テストデータ上での適切なパフォーマンスを促進するのが普通である。
にもかかわらず、異なる分布のサンプルでテストすると性能が低下し、ドメイン間の画像分類が困難になる。
ドメイン外データに対するcnnの一般化を大幅に改善した,単純なトレーニングヒューリスティック表現自己チャリング(rsc)を導入する。
RSCはトレーニングデータ上で活性化される支配的な特徴に挑戦(破棄)し、ラベルと相関する残りの特徴をネットワークに活性化させる。
このプロセスは、新しいドメインの事前知識や余分なネットワークパラメータを学習することなく、ドメイン外のデータに適用可能な機能表現を起動する。
クロスドメイン一般化を改善するためのRCCの理論的性質と条件を示す。
この実験は, RSC法の単純, 効果的, アーキテクチャに依存しない性質を裏付けるものである。
関連論文リスト
- NIDS Neural Networks Using Sliding Time Window Data Processing with Trainable Activations and its Generalization Capability [0.0]
本稿では,ネットワーク侵入検知システム(NIDS)のためのニューラルネットワークについて述べる。
ディープパケットインスペクションに頼らず、ほとんどのNIDSデータセットで見つからず、従来のフローコレクタから簡単に取得できる11の機能しか必要としない。
報告されたトレーニング精度は、提案手法の99%を超え、ニューラルネットワークの入力特性は20に満たない。
論文 参考訳(メタデータ) (2024-10-24T11:36:19Z) - AdaRC: Mitigating Graph Structure Shifts during Test-Time [66.40525136929398]
テスト時間適応(TTA)は、ソースドメインに再アクセスすることなく、トレーニング済みのモデルをターゲットドメインに適応できる能力によって注目を集めている。
AdaRCは,グラフの構造シフトに効果的かつ効率的な適応を意図した,革新的なフレームワークである。
論文 参考訳(メタデータ) (2024-10-09T15:15:40Z) - Cross-Inferential Networks for Source-free Unsupervised Domain
Adaptation [17.718392065388503]
クロス推論ネットワーク (CIN) と呼ばれる新しい手法を提案する。
主な考え方は、符号化された特徴からサンプルラベルを予測するためにネットワークモデルを適用する際に、これらの予測結果を用いて、派生したラベルを用いた新しいトレーニングサンプルを構築することである。
ベンチマークデータを用いた実験の結果,提案手法により,ソースフリーなUDAの性能が大幅に向上することが示された。
論文 参考訳(メタデータ) (2023-06-29T14:04:24Z) - NetRCA: An Effective Network Fault Cause Localization Algorithm [22.88986905436378]
ネットワーク障害の根本原因の特定は、ネットワークの運用と保守に不可欠である。
この問題に対処するために,NetRCAという新しいアルゴリズムを提案する。
ICASSP 2022 AIOps Challengeの実際のデータセットで実験と分析が行われる。
論文 参考訳(メタデータ) (2022-02-23T02:03:35Z) - Domain-Invariant Proposals based on a Balanced Domain Classifier for
Object Detection [8.583307102907295]
画像からのオブジェクト認識は、興味のあるオブジェクトを自動的に見つけ、カテゴリと位置情報を返すことを意味する。
畳み込みニューラルネットワーク(CNN)や生成的敵ネットワークといった深層学習の研究により、この分野のパフォーマンスは大幅に改善された。
分布のミスマッチ、すなわちドメインシフトは、大幅なパフォーマンス低下につながります。
論文 参考訳(メタデータ) (2022-02-12T00:21:27Z) - No Fear of Heterogeneity: Classifier Calibration for Federated Learning
with Non-IID Data [78.69828864672978]
実世界のフェデレーションシステムにおける分類モデルのトレーニングにおける中心的な課題は、非IIDデータによる学習である。
このアルゴリズムは, 近似されたssian混合モデルからサンプリングした仮想表現を用いて分類器を調整する。
実験の結果,CIFAR-10,CIFAR-100,CINIC-10など,一般的なフェデレーション学習ベンチマークにおけるCCVRの現状が示された。
論文 参考訳(メタデータ) (2021-06-09T12:02:29Z) - Joint Learning of Neural Transfer and Architecture Adaptation for Image
Recognition [77.95361323613147]
現在の最先端の視覚認識システムは、大規模データセット上でニューラルネットワークを事前トレーニングし、より小さなデータセットでネットワーク重みを微調整することに依存している。
本稿では,各ドメインタスクに適応したネットワークアーキテクチャの動的適応と,効率と効率の両面で重みの微調整の利点を実証する。
本手法は,ソースドメインタスクでスーパーネットトレーニングを自己教師付き学習に置き換え,下流タスクで線形評価を行うことにより,教師なしパラダイムに容易に一般化することができる。
論文 参考訳(メタデータ) (2021-03-31T08:15:17Z) - Cycle Self-Training for Domain Adaptation [85.14659717421533]
Cycle Self-Training (CST) は、ドメイン間の一般化に擬似ラベルを強制する、原則付き自己学習アルゴリズムである。
CSTは目標の真理を回復し、不変の機能学習とバニラ自己訓練の両方が失敗する。
実験結果から,標準的なUDAベンチマークでは,CSTは先行技術よりも大幅に改善されていることが示唆された。
論文 参考訳(メタデータ) (2021-03-05T10:04:25Z) - Adversarial Training for EM Classification Networks [0.0]
本稿では,ドメイン・アドバイザリ・ネットワークの新たな変種について述べる。
DANNネットワークの両方のフォークに対して、新しい損失関数が定義される。
ドメイン」の概念を拡張して、任意のユーザ定義ラベルを含めることができる。
論文 参考訳(メタデータ) (2020-11-20T20:11:58Z) - Cross-Domain Facial Expression Recognition: A Unified Evaluation
Benchmark and Adversarial Graph Learning [85.6386289476598]
我々は,クロスドメイン全体的特徴共適応のための新しい逆グラフ表現適応(AGRA)フレームワークを開発した。
我々は,いくつかの一般的なベンチマークで広範囲かつ公平な評価を行い,提案したAGRAフレームワークが従来の最先端手法よりも優れていることを示す。
論文 参考訳(メタデータ) (2020-08-03T15:00:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。