論文の概要: Study Features via Exploring Distribution Structure
- arxiv url: http://arxiv.org/abs/2401.07540v1
- Date: Mon, 15 Jan 2024 09:01:31 GMT
- ステータス: 処理完了
- システム内更新日: 2024-01-17 17:47:34.220543
- Title: Study Features via Exploring Distribution Structure
- Title(参考訳): 分布構造の探索による研究特徴
- Authors: Chunxu Cao, Qiang Zhang
- Abstract要約: 本稿では,データセットの確率的モデリングに基づく新しいデータ冗長性測定フレームワークと,ノイズに耐性のある新しい冗長性検出基準を提案する。
我々のフレームワークは柔軟性があり、異なるタイプの機能を扱うことができ、ベンチマークデータセットの実験では、メソッドの有効性が示されています。
- 参考スコア(独自算出の注目度): 9.596923373834093
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In this paper, we present a novel framework for data redundancy measurement
based on probabilistic modeling of datasets, and a new criterion for redundancy
detection that is resilient to noise. We also develop new methods for data
redundancy reduction using both deterministic and stochastic optimization
techniques. Our framework is flexible and can handle different types of
features, and our experiments on benchmark datasets demonstrate the
effectiveness of our methods. We provide a new perspective on feature
selection, and propose effective and robust approaches for both supervised and
unsupervised learning problems.
- Abstract(参考訳): 本稿では,データセットの確率的モデリングに基づくデータ冗長性測定のための新しい枠組みと,雑音に耐性のある冗長性検出のための新しい基準を提案する。
また,決定論的および確率的最適化手法を用いて,データ冗長性低減のための新しい手法を開発した。
当社のフレームワークは柔軟で,さまざまな種類の機能に対応可能です。ベンチマークデータセットによる実験では,メソッドの有効性が示されています。
特徴選択の新しい視点を提供し,教師なしと教師なしの両方の学習問題に対して効果的かつ堅牢なアプローチを提案する。
関連論文リスト
- Where Do We Stand with Implicit Neural Representations? A Technical and Performance Survey [16.89460694470542]
Inlicit Neural Representation (INR) は知識表現のパラダイムとして登場した。
INRは、データを連続的な暗黙の関数としてモデル化するために多層パーセプトロン(MLP)を利用する。
この調査では、アクティベーション機能、位置エンコーディング、統合戦略、ネットワーク構造という4つの重要な領域に分類する明確な分類法を紹介した。
論文 参考訳(メタデータ) (2024-11-06T06:14:24Z) - Rigorous Probabilistic Guarantees for Robust Counterfactual Explanations [80.86128012438834]
モデルシフトに対する反ファクトの堅牢性を計算することはNP完全であることを示す。
本稿では,頑健性の厳密な推定を高い保証で実現する新しい確率論的手法を提案する。
論文 参考訳(メタデータ) (2024-07-10T09:13:11Z) - The Risk of Federated Learning to Skew Fine-Tuning Features and
Underperform Out-of-Distribution Robustness [50.52507648690234]
フェデレートされた学習は、微調整された特徴をスキイングし、モデルの堅牢性を損なうリスクがある。
3つのロバスト性指標を導入し、多様なロバストデータセットで実験を行う。
提案手法は,パラメータ効率のよい微調整手法を含む多種多様なシナリオにまたがるロバスト性を著しく向上させる。
論文 参考訳(メタデータ) (2024-01-25T09:18:51Z) - Federated Learning with Projected Trajectory Regularization [65.6266768678291]
フェデレーション学習は、ローカルデータを共有せずに、分散クライアントから機械学習モデルの共同トレーニングを可能にする。
連合学習における重要な課題の1つは、クライアントにまたがる識別できない分散データを扱うことである。
本稿では,データ問題に対処するための予測軌道正則化(FedPTR)を備えた新しいフェデレーション学習フレームワークを提案する。
論文 参考訳(メタデータ) (2023-12-22T02:12:08Z) - Hierarchical Ensemble-Based Feature Selection for Time Series Forecasting [0.0]
非定常性のための階層的積み重ねに基づく特徴選択のための新しいアンサンブルアプローチを導入する。
当社のアプローチでは,階層構造を用いた機能間の共依存を利用しています。
このアプローチの有効性は、合成およびよく知られた実生活データセット上で実証される。
論文 参考訳(メタデータ) (2023-10-26T16:40:09Z) - Distributionally robust risk evaluation with a causality constraint and structural information [0.0]
ニューラルネットワークによるテスト関数を近似し、Rademacherの複雑さによるサンプルの複雑さを証明する。
我々のフレームワークは、分散的にロバストなポートフォリオ選択問題において、従来のものよりも優れています。
論文 参考訳(メタデータ) (2022-03-20T14:48:37Z) - Unsupervised feature selection via self-paced learning and low-redundant
regularization [6.083524716031565]
自己評価学習とサブスペース学習の枠組みを統合することにより,教師なしの特徴選択を提案する。
この手法の収束性は理論的および実験的に証明される。
実験の結果,提案手法はクラスタリング法の性能を向上し,他の比較アルゴリズムよりも優れていることがわかった。
論文 参考訳(メタデータ) (2021-12-14T08:28:19Z) - MINIMALIST: Mutual INformatIon Maximization for Amortized Likelihood
Inference from Sampled Trajectories [61.3299263929289]
シミュレーションベースの推論は、その可能性が実際に計算できない場合でもモデルのパラメータを学習することができる。
あるクラスのメソッドは、異なるパラメータでシミュレートされたデータを使用して、確率とエビデンス比の償却推定器を推定する。
モデルパラメータとシミュレーションデータ間の相互情報の観点から,本手法が定式化可能であることを示す。
論文 参考訳(メタデータ) (2021-06-03T12:59:16Z) - Beyond Individual and Group Fairness [90.4666341812857]
本稿では,不公平な不公平な苦情に導かれる公平さの新しいデータ駆動モデルを提案する。
我々のモデルは、複数のフェアネス基準をサポートし、それらの潜在的な不整合を考慮に入れている。
論文 参考訳(メタデータ) (2020-08-21T14:14:44Z) - A Novel RL-assisted Deep Learning Framework for Task-informative Signals
Selection and Classification for Spontaneous BCIs [2.299749220980997]
一つの脳波検定からタスク関連時間信号セグメントを推定・選択する問題を定式化する。
本稿では,既存の深層学習に基づくBCI手法と組み合わせることができる新しい強化学習機構を提案する。
論文 参考訳(メタデータ) (2020-07-01T00:35:41Z) - SAMBA: Safe Model-Based & Active Reinforcement Learning [59.01424351231993]
SAMBAは、確率論的モデリング、情報理論、統計学といった側面を組み合わせた安全な強化学習のためのフレームワークである。
我々は,低次元および高次元の状態表現を含む安全な力学系ベンチマークを用いて,アルゴリズムの評価を行った。
アクティブなメトリクスと安全性の制約を詳細に分析することで,フレームワークの有効性を直感的に評価する。
論文 参考訳(メタデータ) (2020-06-12T10:40:46Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。