論文の概要: Adversarial Training for EM Classification Networks
- arxiv url: http://arxiv.org/abs/2011.10615v1
- Date: Fri, 20 Nov 2020 20:11:58 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-23 05:13:12.705873
- Title: Adversarial Training for EM Classification Networks
- Title(参考訳): EM分類ネットワークの逆学習
- Authors: Tom Grimes, Eric Church, William Pitts, Lynn Wood, Eva Brayfindley,
Luke Erikson, Mark Greaves
- Abstract要約: 本稿では,ドメイン・アドバイザリ・ネットワークの新たな変種について述べる。
DANNネットワークの両方のフォークに対して、新しい損失関数が定義される。
ドメイン」の概念を拡張して、任意のユーザ定義ラベルを含めることができる。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We present a novel variant of Domain Adversarial Networks with impactful
improvements to the loss functions, training paradigm, and hyperparameter
optimization. New loss functions are defined for both forks of the DANN
network, the label predictor and domain classifier, in order to facilitate more
rapid gradient descent, provide more seamless integration into modern neural
networking frameworks, and allow previously unavailable inferences into network
behavior. Using these loss functions, it is possible to extend the concept of
'domain' to include arbitrary user defined labels applicable to subsets of the
training data, the test data, or both. As such, the network can be operated in
either 'On the Fly' mode where features provided by the feature extractor
indicative of differences between 'domain' labels in the training data are
removed or in 'Test Collection Informed' mode where features indicative of
difference between 'domain' labels in the combined training and test data are
removed (without needing to know or provide test activity labels to the
network). This work also draws heavily from previous works on Robust Training
which draws training examples from a L_inf ball around the training data in
order to remove fragile features induced by random fluctuations in the data. On
these networks we explore the process of hyperparameter optimization for both
the domain adversarial and robust hyperparameters. Finally, this network is
applied to the construction of a binary classifier used to identify the
presence of EM signal emitted by a turbopump. For this example, the effect of
the robust and domain adversarial training is to remove features indicative of
the difference in background between instances of operation of the device -
providing highly discriminative features on which to construct the classifier.
- Abstract(参考訳): 本稿では,損失関数,トレーニングパラダイム,ハイパーパラメータ最適化を改良した新しいドメイン・アドバイザリアル・ネットワークを提案する。
新たな損失関数は、より迅速な勾配降下を促進し、現代的なニューラルネットワークフレームワークへのシームレスな統合を提供し、従来使用できなかったネットワーク動作への推論を可能にするために、dannネットワークのフォーク、ラベル予測器、ドメイン分類器の両方で定義されている。
これらの損失関数を使用すると、トレーニングデータのサブセット、テストデータ、またはその両方に適用可能な任意のユーザ定義ラベルを含む「ドメイン」の概念を拡張することができる。
これにより、訓練データにおける「ドメイン」ラベル間の差異を示す特徴抽出器により提供される特徴を示す「オン・ザ・フライ」モードと、訓練データとテストデータとにおける「ドメイン」ラベル間の差異を示す特徴を除去した「テストコレクションインフォームド」モードのいずれかでネットワークを動作させることができる(ネットワークにテストアクティビティラベルを知る必要がなくとも)。
この研究は、データのランダムなゆらぎによって引き起こされる脆弱な特徴を取り除くために、トレーニングデータの周りにL_infボールからトレーニング例を引き出すロバストトレーニングに関する以前の研究から大きく引き出された。
これらのネットワーク上で、ドメイン逆数とロバストハイパーパラメータの両方に対するハイパーパラメータ最適化のプロセスについて検討する。
最後に、このネットワークはターボポンプによって出力されるEM信号の存在を特定するために使用されるバイナリ分類器の構築に適用される。
例えば、ロバストとドメインの敵対的トレーニングの効果は、分類器を構成する非常に識別的な特徴を提供するデバイスの動作のインスタンス間の背景の違いを示す特徴を削除することである。
関連論文リスト
- DDG-Net: Discriminability-Driven Graph Network for Weakly-supervised
Temporal Action Localization [40.521076622370806]
本稿では、曖昧なスニペットとよく設計された接続を持つ識別的スニペットを明示的にモデル化した識別可能性駆動グラフネットワーク(DDG-Net)を提案する。
THUMOS14とActivityNet1.2ベンチマークの実験では、DDG-Netの有効性が示されている。
論文 参考訳(メタデータ) (2023-07-31T05:48:39Z) - Learning from Data with Noisy Labels Using Temporal Self-Ensemble [11.245833546360386]
ディープニューラルネットワーク(DNN)はノイズラベルを記憶する膨大な能力を持つ。
現在最先端の手法では、損失の少ないサンプルを用いて二重ネットワークを訓練するコトレーニング方式が提案されている。
本稿では,単一のネットワークのみをトレーニングすることで,シンプルで効果的なロバストトレーニング手法を提案する。
論文 参考訳(メタデータ) (2022-07-21T08:16:31Z) - Random Feature Amplification: Feature Learning and Generalization in
Neural Networks [44.431266188350655]
勾配降下法により訓練された2層ReLUネットワークにおける特徴学習過程の特徴付けを行う。
線形分類器は分布のランダムな推定に勝るものの,勾配降下により訓練された2層ReLUネットワークはラベルノイズ率に近い一般化誤差を達成できることを示す。
論文 参考訳(メタデータ) (2022-02-15T18:18:22Z) - Shuffle Augmentation of Features from Unlabeled Data for Unsupervised
Domain Adaptation [21.497019000131917]
Unsupervised Domain Adaptation (UDA) は、ターゲットサンプルのラベルが利用できない転送学習の分野である。
本稿では,新しいUDAフレームワークとしてShuffle Augmentation of Features (SAF)を提案する。
SAFはターゲットサンプルから学習し、クラス認識対象の特徴を適応的に蒸留し、クラス境界を見つけるために分類器を暗黙的にガイドする。
論文 参考訳(メタデータ) (2022-01-28T07:11:05Z) - Attentive Prototypes for Source-free Unsupervised Domain Adaptive 3D
Object Detection [85.11649974840758]
3Dオブジェクト検出ネットワークは、トレーニングされたデータに対してバイアスを受ける傾向がある。
そこで本研究では,ライダーを用いた3次元物体検出器のソースレス・教師なし領域適応のための単一フレーム手法を提案する。
論文 参考訳(メタデータ) (2021-11-30T18:42:42Z) - Stagewise Unsupervised Domain Adaptation with Adversarial Self-Training
for Road Segmentation of Remote Sensing Images [93.50240389540252]
リモートセンシング画像からの道路セグメンテーションは、幅広い応用可能性を持つ課題である。
本稿では,この領域における領域シフト(DS)問題に対処するため,RoadDAと呼ばれる新たな段階的ドメイン適応モデルを提案する。
2つのベンチマーク実験の結果、RoadDAはドメインギャップを効率的に減らし、最先端の手法より優れていることが示された。
論文 参考訳(メタデータ) (2021-08-28T09:29:14Z) - Contrastive Learning and Self-Training for Unsupervised Domain
Adaptation in Semantic Segmentation [71.77083272602525]
UDAはラベル付きソースドメインからラベルなしターゲットドメインへの効率的な知識伝達を試みている。
本稿では,領域にまたがるカテゴリ別センタロイドを適応させるコントラスト学習手法を提案する。
提案手法を自己学習で拡張し,メモリ効率の良い時間アンサンブルを用いて一貫性と信頼性の高い擬似ラベルを生成する。
論文 参考訳(メタデータ) (2021-05-05T11:55:53Z) - Re-energizing Domain Discriminator with Sample Relabeling for
Adversarial Domain Adaptation [88.86865069583149]
Unsupervised Domain Adapt (UDA)メソッドは、ドメインの競合トレーニングを利用して、機能を調整してドメインのギャップを減らす。
本研究では,Re-enforceable Adversarial Domain Adaptation (RADA) と呼ばれる効率的な最適化戦略を提案する。
RADAは、動的ドメインラベルを使用して、トレーニング中にドメイン識別器を再活性化することを目指しています。
論文 参考訳(メタデータ) (2021-03-22T08:32:55Z) - Dual-Refinement: Joint Label and Feature Refinement for Unsupervised
Domain Adaptive Person Re-Identification [51.98150752331922]
Unsupervised Domain Adaptive (UDA) Person Re-identification (再ID) は、ターゲットドメインデータのラベルが欠落しているため、難しい作業です。
オフラインクラスタリングフェーズにおける擬似ラベルとオンライントレーニングフェーズにおける特徴を共同で改良する,デュアルリファインメントと呼ばれる新しいアプローチを提案する。
本手法は最先端手法を大きなマージンで上回っている。
論文 参考訳(メタデータ) (2020-12-26T07:35:35Z) - Self-Challenging Improves Cross-Domain Generalization [81.99554996975372]
畳み込みニューラルネットワーク(CNN)は、ラベルと相関する支配的特徴を活性化することにより、画像分類を行う。
ドメイン外データに対するCNNの一般化を著しく改善する簡単なトレーニングである自己整合表現(RSC)を導入する。
RSCはトレーニングデータ上で活性化される主要な機能に対して反復的に挑戦し、ラベルと相関する残りの機能を有効にするようネットワークに強制する。
論文 参考訳(メタデータ) (2020-07-05T21:42:26Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。