論文の概要: DN-CL: Deep Symbolic Regression against Noise via Contrastive Learning
- arxiv url: http://arxiv.org/abs/2406.14844v1
- Date: Fri, 21 Jun 2024 03:13:40 GMT
- ステータス: 処理完了
- システム内更新日: 2024-06-24 14:52:36.139289
- Title: DN-CL: Deep Symbolic Regression against Noise via Contrastive Learning
- Title(参考訳): DN-CL:コントラスト学習による雑音に対する深いシンボリック回帰
- Authors: Jingyi Liu, Yanjie Li, Lina Yu, Min Wu, Weijun Li, Wenqiang Li, Meilan Hao, Yusong Deng, Shu Wei,
- Abstract要約: textbfContrastive textbfL earning (DN-CL) を用いてtextbfNoise に対するtextittextbfDeep Regression を提案する。
DN-CLは2つのパラメータ共有エンコーダを使用して、様々なデータ変換のデータポイントをノイズに対する特徴シールドに埋め込む。
実験の結果,DN-CLはノイズやクリーンなデータを扱う上で優れた性能を示した。
- 参考スコア(独自算出の注目度): 12.660401635672969
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Noise ubiquitously exists in signals due to numerous factors including physical, electronic, and environmental effects. Traditional methods of symbolic regression, such as genetic programming or deep learning models, aim to find the most fitting expressions for these signals. However, these methods often overlook the noise present in real-world data, leading to reduced fitting accuracy. To tackle this issue, we propose \textit{\textbf{D}eep Symbolic Regression against \textbf{N}oise via \textbf{C}ontrastive \textbf{L}earning (DN-CL)}. DN-CL employs two parameter-sharing encoders to embed data points from various data transformations into feature shields against noise. This model treats noisy data and clean data as different views of the ground-truth mathematical expressions. Distances between these features are minimized, utilizing contrastive learning to distinguish between 'positive' noise-corrected pairs and 'negative' contrasting pairs. Our experiments indicate that DN-CL demonstrates superior performance in handling both noisy and clean data, presenting a promising method of symbolic regression.
- Abstract(参考訳): 騒音は、物理的、電子的、環境的な影響を含む多くの要因のために、信号の中にユビキタスに存在する。
遺伝的プログラミングやディープラーニングモデルのような伝統的な記号回帰の方法は、これらの信号に最も適した表現を見つけることを目的としている。
しかし、これらの手法は実世界のデータに存在するノイズを見落とし、適合精度を低下させる。
この問題に対処するために、我々は \textbf{C}ontrastive \textbf{L}earning (DN-CL)} を介して \textbf{N}oise に対する \textit{\textbf{D}eep シンボリック回帰を提案する。
DN-CLは2つのパラメータ共有エンコーダを使用して、様々なデータ変換のデータポイントをノイズに対する特徴シールドに埋め込む。
このモデルは、ノイズの多いデータとクリーンなデータを、基底真実の数学的表現の異なるビューとして扱う。
これらの特徴間の距離は最小化され、比較学習を利用して「正」のノイズ補正対と「負」のコントラスト対を区別する。
実験の結果,DN-CLはノイズやクリーンなデータを扱う上で優れた性能を示し,シンボルレグレッションの有望な方法を示すことがわかった。
関連論文リスト
- Disentangled Noisy Correspondence Learning [56.06801962154915]
クロスモーダル検索は、モダリティ間の潜在対応を理解する上で重要である。
DisNCLはノイズ対応学習における特徴分散のための新しい情報理論フレームワークである。
論文 参考訳(メタデータ) (2024-08-10T09:49:55Z) - PLReMix: Combating Noisy Labels with Pseudo-Label Relaxed Contrastive
Representation Learning [5.962428976778709]
本稿では,Pseudo-Label Relaxed (PLR) のコントラスト損失を導入することで,複雑なパイプラインを回避する,エンドツーエンドのPLReMixフレームワークを提案する。
PLR損失は、予測確率の上位kで重複する不適切な負のペアをフィルタリングすることで、各サンプルの信頼な負の集合を構成する。
提案するPLR損失はスケーラブルであり,他のLNL手法と容易に統合し,その性能を向上させることができる。
論文 参考訳(メタデータ) (2024-02-27T15:22:20Z) - Latent Class-Conditional Noise Model [54.56899309997246]
本稿では,ベイズ的枠組みの下での雑音遷移をパラメータ化するためのLatent Class-Conditional Noise Model (LCCN)を提案する。
次に、Gibs sampler を用いて遅延真のラベルを効率的に推測できる LCCN の動的ラベル回帰法を導出する。
提案手法は,サンプルのミニバッチから事前の任意チューニングを回避するため,ノイズ遷移の安定な更新を保護している。
論文 参考訳(メタデータ) (2023-02-19T15:24:37Z) - Towards Harnessing Feature Embedding for Robust Learning with Noisy
Labels [44.133307197696446]
ディープニューラルネットワーク(DNN)の記憶効果は,近年のラベルノイズ学習法において重要な役割を担っている。
ラベルノイズを用いたディープラーニングのための新しい特徴埋め込み方式, LabEl Noise Dilution (LEND) を提案する。
論文 参考訳(メタデータ) (2022-06-27T02:45:09Z) - Treatment Learning Causal Transformer for Noisy Image Classification [62.639851972495094]
本研究では,この2値情報「ノイズの存在」を画像分類タスクに組み込んで予測精度を向上させる。
因果的変動推定から動機付け,雑音画像分類のための頑健な特徴表現を潜在生成モデルを用いて推定するトランスフォーマーに基づくアーキテクチャを提案する。
また、パフォーマンスベンチマークのための幅広いノイズ要素を取り入れた、新しいノイズの多い画像データセットも作成する。
論文 参考訳(メタデータ) (2022-03-29T13:07:53Z) - Towards Adversarially Robust Deep Image Denoising [199.2458715635285]
本研究は,ディープ・イメージ・デノイザ(DID)の対角的ロバスト性について系統的に検討する。
本稿では,観測に基づくゼロ平均アタック(sc ObsAtk)という新たな敵攻撃を提案する。
DIDを頑健化するために,DIDと非対向雑音データとを併用したハイブリッド対向訓練(sc HAT)を提案する。
論文 参考訳(メタデータ) (2022-01-12T10:23:14Z) - Bridging the Gap Between Clean Data Training and Real-World Inference
for Spoken Language Understanding [76.89426311082927]
既存のモデルはクリーンデータに基づいてトレーニングされ、クリーンデータトレーニングと現実世界の推論の間にtextitgapが発生する。
本稿では,良質なサンプルと低品質のサンプルの両方が類似ベクトル空間に埋め込まれた領域適応法を提案する。
広く使用されているデータセット、スニップス、および大規模な社内データセット(1000万のトレーニング例)に関する実験では、この方法は実世界の(騒々しい)コーパスのベースラインモデルを上回るだけでなく、堅牢性、すなわち、騒々しい環境下で高品質の結果を生み出すことを実証しています。
論文 参考訳(メタデータ) (2021-04-13T17:54:33Z) - GANs for learning from very high class conditional noisy labels [1.6516902135723865]
我々は、GAN(Generative Adversarial Networks)を用いて、バイナリ分類のためのクラス条件付きラベルノイズ(CCN)ロバストなスキームを設計する。
まず、ノイズラベル付きデータと0.1%または1%クリーンラベルから正しいラベル付きデータポイントのセットを生成する。
論文 参考訳(メタデータ) (2020-10-19T15:01:11Z) - Simultaneous Denoising and Dereverberation Using Deep Embedding Features [64.58693911070228]
ディープ埋め込み特徴を用いた同時発声・発声同時学習法を提案する。
ノイズ発生段階では、DCネットワークを利用してノイズのないディープ埋込み特性を抽出する。
残響段階では、教師なしのK平均クラスタリングアルゴリズムの代わりに、別のニューラルネットワークを用いて無響音声を推定する。
論文 参考訳(メタデータ) (2020-04-06T06:34:01Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。