論文の概要: Robust Autoencoders for Collective Corruption Removal
- arxiv url: http://arxiv.org/abs/2303.02828v1
- Date: Mon, 6 Mar 2023 01:45:32 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-07 17:39:04.380677
- Title: Robust Autoencoders for Collective Corruption Removal
- Title(参考訳): 集団腐敗除去のためのロバストオートエンコーダ
- Authors: Taihui Li, Hengkang Wang, Peng Le, XianE Tang, Ju Sun
- Abstract要約: ロバストPCAは、希少な外乱や希少な外乱の存在下で線形部分空間を学習するための標準ツールである。
本稿では,深層オートエンコーダが多様体学習を行う直感に基づいて, $ell_$- および $ell_/ell$-robust オートエンコーダを提案する。
学習された多様体構造は、効果的に見つからないデータサンプルに一般化できることを示す。
- 参考スコア(独自算出の注目度): 1.749935196721634
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Robust PCA is a standard tool for learning a linear subspace in the presence
of sparse corruption or rare outliers. What about robustly learning manifolds
that are more realistic models for natural data, such as images? There have
been several recent attempts to generalize robust PCA to manifold settings. In
this paper, we propose $\ell_1$- and scaling-invariant $\ell_1/\ell_2$-robust
autoencoders based on a surprisingly compact formulation built on the intuition
that deep autoencoders perform manifold learning. We demonstrate on several
standard image datasets that the proposed formulation significantly outperforms
all previous methods in collectively removing sparse corruption, without clean
images for training. Moreover, we also show that the learned manifold
structures can be generalized to unseen data samples effectively.
- Abstract(参考訳): ロバストPCAは、希少な外乱や希少な外乱の存在下で線形部分空間を学習するための標準ツールである。
画像のような自然データのより現実的なモデルである頑健な学習多様体はどうだろう?
近年、ロバストPCAを多様体設定に一般化する試みがいくつかある。
本稿では,深いオートエンコーダが多様体学習を行う直感に基づく驚くほどコンパクトな定式化に基づいて,$\ell_1$-およびスケール不変の$\ell_1/\ell_2$-robustオートエンコーダを提案する。
本稿では,提案手法が,クリーンイメージをトレーニングに使わずにスパース汚職を総合的に除去する上で,従来の手法を著しく上回っていることを示す。
さらに,学習した多様体構造を一般化してデータサンプルを効果的に取得できることを示す。
関連論文リスト
- Robust Reinforcement Learning from Corrupted Human Feedback [86.17030012828003]
人間からのフィードバックからの強化学習(RLHF)は、AIシステムと人間の嗜好データを調整するための原則化されたフレームワークを提供する。
我々はRLHFのロバストなアプローチ-$R3M$を提案し、これは、潜在的に破損した選好ラベルをスパースアウトリーとしてモデル化する。
大規模言語モデル(LLM)を用いたロボット制御と自然言語生成の実験により、R3M$は、好みデータに対する様々な摂動に対する報酬の堅牢性を向上することを示した。
論文 参考訳(メタデータ) (2024-06-21T18:06:30Z) - CorDA: Context-Oriented Decomposition Adaptation of Large Language Models for Task-Aware Parameter-Efficient Fine-tuning [101.81127587760831]
現在の微調整手法は、学習すべき下流タスクのコンテキストや、維持すべき重要な知識のコンテキストに広く適用できるアダプタを構築している。
学習可能なタスク対応アダプタを構築するコンテキスト指向の分解適応手法であるCorDAを提案する。
本手法は,知識保存型適応と指導レビュー型適応の2つの選択肢を実現する。
論文 参考訳(メタデータ) (2024-06-07T19:10:35Z) - ZeroPur: Succinct Training-Free Adversarial Purification [52.963392510839284]
敵の粛清は、様々な目に見えない敵の攻撃を防御できる防衛計算手法の一種である。
我々は、ZeroPurと呼ばれる、逆画像の浄化を更なる訓練なしに簡単な逆画像浄化法を提案する。
論文 参考訳(メタデータ) (2024-06-05T10:58:15Z) - Super Non-singular Decompositions of Polynomials and their Application to Robustly Learning Low-degree PTFs [39.468324211376505]
低次しきい値関数 (PTF) の, 対向汚職の一定割合の存在下での効率的な学習性について検討した。
提案アルゴリズムは,線形しきい値関数の学習に使用されていた局所化手法に着想を得た反復的手法を用いている。
論文 参考訳(メタデータ) (2024-03-31T02:03:35Z) - Learning on JPEG-LDPC Compressed Images: Classifying with Syndromes [3.2657732635702375]
ゴール指向通信では、受信機の目的は、元のデータを再構成するのではなく、ディープラーニングモデルを適用することである。
本稿では,低密度パリティチェック(LDPC)符号を用いてエントロピー符号化を実現する方法を提案する。
論文 参考訳(メタデータ) (2024-03-15T11:07:38Z) - Towards Robust Model-Based Reinforcement Learning Against Adversarial Corruption [60.958746600254884]
本研究は、モデルベース強化学習(RL)における敵対的腐敗の課題に取り組む。
本稿では,MLE に対する不確実性重みとして全変量 (TV) に基づく情報比を利用する,汚損楽観的 MLE (CR-OMLE) アルゴリズムを提案する。
我々は、重み付け手法をオフライン設定にまで拡張し、汚損性悲観的MLE (CR-PMLE) というアルゴリズムを提案する。
論文 参考訳(メタデータ) (2024-02-14T07:27:30Z) - $t^3$-Variational Autoencoder: Learning Heavy-tailed Data with Student's
t and Power Divergence [7.0479532872043755]
$t3$VAEは、学生のt-distributionsを前者、エンコーダ、デコーダに組み込んだ改良されたVAEフレームワークである。
t3$VAE は CelebA や不均衡な CIFAR-100 データセットにおいて,他のモデルよりも大幅に優れていた。
論文 参考訳(メタデータ) (2023-12-02T13:14:28Z) - Semi-Supervised Manifold Learning with Complexity Decoupled Chart Autoencoders [45.29194877564103]
本研究は、クラスラベルなどの半教師付き情報を付加できる非対称符号化復号プロセスを備えたチャートオートエンコーダを導入する。
このようなネットワークの近似力を議論し、周囲空間の次元ではなく、本質的にデータ多様体の内在次元に依存する境界を導出する。
論文 参考訳(メタデータ) (2022-08-22T19:58:03Z) - Few-Shot Non-Parametric Learning with Deep Latent Variable Model [50.746273235463754]
遅延変数を用いた圧縮による非パラメトリック学習(NPC-LV)を提案する。
NPC-LVは、ラベルなしデータが多いがラベル付きデータはほとんどないデータセットの学習フレームワークである。
我々は,NPC-LVが低データ構造における画像分類における3つのデータセットの教師あり手法よりも優れていることを示す。
論文 参考訳(メタデータ) (2022-06-23T09:35:03Z) - MMCGAN: Generative Adversarial Network with Explicit Manifold Prior [78.58159882218378]
本稿では,モード崩壊を緩和し,GANのトレーニングを安定させるために,明示的な多様体学習を採用することを提案する。
玩具データと実データの両方を用いた実験により,MMCGANのモード崩壊緩和効果,トレーニングの安定化,生成サンプルの品質向上効果が示された。
論文 参考訳(メタデータ) (2020-06-18T07:38:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。