論文の概要: Learning Hybrid Representation by Robust Dictionary Learning in
Factorized Compressed Space
- arxiv url: http://arxiv.org/abs/1912.11785v1
- Date: Thu, 26 Dec 2019 06:52:34 GMT
- ステータス: 処理完了
- システム内更新日: 2023-06-10 08:30:53.126405
- Title: Learning Hybrid Representation by Robust Dictionary Learning in
Factorized Compressed Space
- Title(参考訳): 分解圧縮空間におけるロバスト辞書学習によるハイブリッド表現の学習
- Authors: Jiahuan Ren, Zhao Zhang, Sheng Li, Yang Wang, Guangcan Liu, Shuicheng
Yan, Meng Wang
- Abstract要約: 本研究では,高次圧縮空間における高次低ランクとスパース表現のハイブリッド化を実現するために,頑健な辞書学習(DL)について検討する。
共用ロバスト因子化と射影辞書学習(J-RFDL)モデルを提案する。
- 参考スコア(独自算出の注目度): 84.37923242430999
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In this paper, we investigate the robust dictionary learning (DL) to discover
the hybrid salient low-rank and sparse representation in a factorized
compressed space. A Joint Robust Factorization and Projective Dictionary
Learning (J-RFDL) model is presented. The setting of J-RFDL aims at improving
the data representations by enhancing the robustness to outliers and noise in
data, encoding the reconstruction error more accurately and obtaining hybrid
salient coefficients with accurate reconstruction ability. Specifically, J-RFDL
performs the robust representation by DL in a factorized compressed space to
eliminate the negative effects of noise and outliers on the results, which can
also make the DL process efficient. To make the encoding process robust to
noise in data, J-RFDL clearly uses sparse L2, 1-norm that can potentially
minimize the factorization and reconstruction errors jointly by forcing rows of
the reconstruction errors to be zeros. To deliver salient coefficients with
good structures to reconstruct given data well, J-RFDL imposes the joint
low-rank and sparse constraints on the embedded coefficients with a synthesis
dictionary. Based on the hybrid salient coefficients, we also extend J-RFDL for
the joint classification and propose a discriminative J-RFDL model, which can
improve the discriminating abilities of learnt coeffi-cients by minimizing the
classification error jointly. Extensive experiments on public datasets
demonstrate that our formulations can deliver superior performance over other
state-of-the-art methods.
- Abstract(参考訳): 本稿では,頑健な辞書学習 (dl) について検討し,因子化圧縮空間における有価な低ランク表現とスパース表現のハイブリッドを探索する。
共同ロバスト因子化と投影辞書学習(J-RFDL)モデルを提案する。
J-RFDLの設定は、データ内の外れ値やノイズに対するロバスト性を向上し、再構成誤差をより正確に符号化し、正確な復元能力を有するハイブリッド唾液係数を得ることにより、データ表現を改善することを目的としている。
特に、J-RFDLは、分解された圧縮空間におけるDLによるロバスト表現を行い、結果に対するノイズや外れ値の影響を排除し、DLプロセスの効率も向上する。
符号化プロセスをデータのノイズに頑健にするため、j-rfdlはスパースl2、1-ノルムを使用しており、リコンストラクションエラーの行をゼロにすることで、ファクタライゼーションとリコンストラクションエラーを最小化することができる。
J-RFDLは、与えられたデータを適切に再構成するために優れた構造を持つ健全な係数を提供するために、埋め込み係数に結合した低ランクかつスパースな制約を合成辞書で課す。
また,J-RFDLを結合分類用として拡張し,その分類誤差を最小化することにより,学習者の識別能力を向上する識別的J-RFDLモデルを提案する。
公開データセットに関する広範な実験は、私たちの定式化が、他の最先端の方法よりも優れたパフォーマンスを提供できることを証明します。
関連論文リスト
- DiffATR: Diffusion-based Generative Modeling for Audio-Text Retrieval [49.076590578101985]
ノイズから関節分布を生成する拡散型ATRフレームワーク(DiffATR)を提案する。
優れたパフォーマンスを持つAudioCapsとClothoデータセットの実験は、我々のアプローチの有効性を検証する。
論文 参考訳(メタデータ) (2024-09-16T06:33:26Z) - R-SFLLM: Jamming Resilient Framework for Split Federated Learning with Large Language Models [83.77114091471822]
Split Federated Learning (SFL)は、分散機械学習(ML)における計算効率のパラダイムである。
SFLの課題は、特に無線チャネル上に展開する場合、送信されたモデルパラメータが相手のジャミングに感受性を持つことである。
これは、言語理解に不可欠である大規模言語モデル(LLM)における単語埋め込みパラメータに対して特に顕著である。
無線ネットワーク上でのLLM(R-SFLLM)を用いたレジリエンスSFLのための物理層フレームワークを開発した。
論文 参考訳(メタデータ) (2024-07-16T12:21:29Z) - Unveiling the Flaws: Exploring Imperfections in Synthetic Data and Mitigation Strategies for Large Language Models [89.88010750772413]
大規模言語モデル(LLM)の学習における高品質なデータ不足問題に対する解決法として,合成データを提案する。
我々の研究は、Q-A(Q-A)ペア、一般的な合成データに関連するこれらの特定の欠陥を掘り下げ、これらの欠陥を軽減するための未学習技術に基づく方法を提案する。
我々の研究は、より堅牢で効率的なLLMトレーニングを促進することを目的として、合成データの効果的な利用に関する重要な洞察を得た。
論文 参考訳(メタデータ) (2024-06-18T08:38:59Z) - Machine Learning Techniques for Data Reduction of CFD Applications [10.881548113461493]
本稿では,科学的結果の低減に相関を利用した保証ブロックオートエンコーダを提案する。
入力と出力の両方にテンソルの多次元ブロック(CFD)を使用する。
論文 参考訳(メタデータ) (2024-04-28T04:01:09Z) - Boosting Differentiable Causal Discovery via Adaptive Sample Reweighting [62.23057729112182]
異なるスコアに基づく因果探索法は観測データから有向非巡回グラフを学習する。
本稿では,Reweighted Score関数ReScoreの適応重みを動的に学習することにより因果発見性能を向上させるためのモデルに依存しないフレームワークを提案する。
論文 参考訳(メタデータ) (2023-03-06T14:49:59Z) - Federated Latent Class Regression for Hierarchical Data [5.110894308882439]
フェデレートラーニング(FL)は、多くのエージェントがローカルに保存されたデータを開示することなく、グローバル機械学習モデルのトレーニングに参加することを可能にする。
本稿では,新しい確率モデルである階層潜在クラス回帰(HLCR)を提案し,フェデレートラーニング(FEDHLCR)への拡張を提案する。
我々の推論アルゴリズムはベイズ理論から派生したもので、強い収束保証と過剰適合性を提供する。実験結果から、FEDHLCRは非IIDデータセットにおいても高速収束を提供することが示された。
論文 参考訳(メタデータ) (2022-06-22T00:33:04Z) - Accurate Discharge Coefficient Prediction of Streamlined Weirs by
Coupling Linear Regression and Deep Convolutional Gated Recurrent Unit [2.4475596711637433]
本研究では,CFDシミュレーションに代わるデータ駆動モデリング手法を提案する。
提案した3層階層型DLアルゴリズムは,後続の2つのGRUレベルを結合した畳み込み層で構成されており,LR法とハイブリダイゼーションすることで,誤差の低減につながることがわかった。
論文 参考訳(メタデータ) (2022-04-12T01:59:36Z) - A Sparsity-promoting Dictionary Model for Variational Autoencoders [16.61511959679188]
深層生成モデルにおける潜伏空間の構造化は、より表現力のあるモデルと解釈可能な表現を得るために重要である。
本稿では,空間の空間構造をスパーシティ・プロモーティング・辞書・モデルを用いて簡易かつ効果的に構築する手法を提案する。
論文 参考訳(メタデータ) (2022-03-29T17:13:11Z) - Distributionally Robust Multi-Output Regression Ranking [3.9318191265352196]
DRMRR(Distributedally Robust Multi-output Regression Ranking)と呼ばれるリストワイズ学習ランクモデルを導入する。
DRMRRは分散ロバスト最適化フレームワークを使用して、経験的データ分布の近傍で最も有害な分布の下でのマルチ出力損失関数を最小化する。
本実験は,医用文書検索と薬物反応予測の2つの実世界の応用について行った。
論文 参考訳(メタデータ) (2021-09-27T05:19:27Z) - Autoregressive Score Matching [113.4502004812927]
自動回帰条件スコアモデル(AR-CSM)を提案する。
AR-CSMモデルでは、このデータ分布とモデル分布のばらつきを効率的に計算し、最適化することができ、高価なサンプリングや対向訓練を必要としない。
本研究では,合成データに対する密度推定,画像生成,画像復調,暗黙エンコーダを用いた潜在変数モデルの訓練に応用できることを示す。
論文 参考訳(メタデータ) (2020-10-24T07:01:24Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。