論文の概要: Feature weighting for data analysis via evolutionary simulation
- arxiv url: http://arxiv.org/abs/2511.06454v1
- Date: Sun, 09 Nov 2025 16:40:47 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-19 16:23:52.642565
- Title: Feature weighting for data analysis via evolutionary simulation
- Title(参考訳): 進化シミュレーションによるデータ解析のための特徴重み付け
- Authors: Aris Daniilidis, Alberto Domínguez Corella, Philipp Wissgott,
- Abstract要約: このアルゴリズムは、正規化されたデータ行列から計算された更新指標を用いて、標準単純体上の複製子型ダイナミクスによって重みを進化させる。
結果の列は世界中に一意な内部平衡に収束し、非退化制限重みを生じることを証明している。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We analyze an algorithm for assigning weights prior to scalarization in discrete multi-objective problems arising from data analysis. The algorithm evolves the weights (the relevance of features) by a replicator-type dynamic on the standard simplex, with update indices computed from a normalized data matrix. We prove that the resulting sequence converges globally to a unique interior equilibrium, yielding non-degenerate limiting weights. The method, originally inspired by evolutionary game theory, differs from standard weighting schemes in that it is analytically tractable with provable convergence.
- Abstract(参考訳): データ解析から生じる離散多目的問題のスカラー化に先立って重みを割り当てるアルゴリズムを解析する。
このアルゴリズムは、正規化されたデータ行列から計算された更新指標を用いて、標準単純体上の複製子型ダイナミクスにより重み(特徴の関連性)を進化させる。
結果の列は世界中に一意な内部平衡に収束し、非退化制限重みを生じることを証明している。
進化ゲーム理論にインスパイアされたこの方法は、証明可能な収束で解析的に引き出すことができるという標準的な重み付けスキームとは異なる。
関連論文リスト
- Approximate Gaussianity Beyond Initialisation in Neural Networks [0.0954904463032233]
MNIST分類問題に対するトレーニングプロセスを通して,ニューラルネットワークの重み行列のアンサンブルについて検討する。
実験には、様々な初期化機構、規則化、層深さ、層幅の影響が含まれる。
論文 参考訳(メタデータ) (2025-10-06T18:00:46Z) - Scaling and renormalization in high-dimensional regression [72.59731158970894]
リッジ回帰に関する最近の結果について統一的な視点を提示する。
我々は、物理とディープラーニングの背景を持つ読者を対象に、ランダム行列理論と自由確率の基本的なツールを使用する。
我々の結果は拡張され、初期のスケーリング法則のモデルについて統一的な視点を提供する。
論文 参考訳(メタデータ) (2024-05-01T15:59:00Z) - Capturing dynamical correlations using implicit neural representations [85.66456606776552]
実験データから未知のパラメータを復元するために、モデルハミルトンのシミュレーションデータを模倣するために訓練されたニューラルネットワークと自動微分を組み合わせた人工知能フレームワークを開発する。
そこで本研究では, 実時間から多次元散乱データに適用可能な微分可能なモデルを1回だけ構築し, 訓練する能力について述べる。
論文 参考訳(メタデータ) (2023-04-08T07:55:36Z) - Robust Regularized Low-Rank Matrix Models for Regression and
Classification [14.698622796774634]
本稿では,ランク制約,ベクトル正規化(疎性など),一般損失関数に基づく行列変分回帰モデルのフレームワークを提案する。
アルゴリズムは収束することが保証されており、アルゴリズムのすべての累積点が$O(sqrtn)$100の順序で推定誤差を持ち、最小値の精度をほぼ達成していることを示す。
論文 参考訳(メタデータ) (2022-05-14T18:03:48Z) - Fractal Structure and Generalization Properties of Stochastic
Optimization Algorithms [71.62575565990502]
最適化アルゴリズムの一般化誤差は、その一般化尺度の根底にあるフラクタル構造の複雑性'にバウンドできることを示す。
さらに、特定の問題(リニア/ロジスティックレグレッション、隠れ/層ニューラルネットワークなど)とアルゴリズムに対して、結果をさらに専門化します。
論文 参考訳(メタデータ) (2021-06-09T08:05:36Z) - Asymptotic Errors for Teacher-Student Convex Generalized Linear Models
(or : How to Prove Kabashima's Replica Formula) [23.15629681360836]
凸一般化線形モデルの再構成性能に関する解析式を検証した。
解析的継続を行えば、結果を凸(非強直)問題に拡張できることを示す。
主流学習法に関する数値的な例で,本主張を述べる。
論文 参考訳(メタデータ) (2020-06-11T16:26:35Z) - Multiplicative noise and heavy tails in stochastic optimization [62.993432503309485]
経験的最適化は現代の機械学習の中心であるが、その成功における役割はまだ不明である。
分散による離散乗法雑音のパラメータによく現れることを示す。
最新のステップサイズやデータを含む重要な要素について、詳細な分析を行い、いずれも最先端のニューラルネットワークモデルで同様の結果を示す。
論文 参考訳(メタデータ) (2020-06-11T09:58:01Z) - A Dynamical Mean-Field Theory for Learning in Restricted Boltzmann
Machines [2.8021833233819486]
ボルツマンマシンにおける磁化計算のためのメッセージパッシングアルゴリズムを定義する。
安定性基準の下でのアルゴリズムのグローバル収束を証明し,数値シミュレーションとの良好な一致を示す収束率を計算する。
論文 参考訳(メタデータ) (2020-05-04T15:19:31Z) - Analysis of Bayesian Inference Algorithms by the Dynamical Functional
Approach [2.8021833233819486]
学生自明なシナリオにおいて,大ガウス潜在変数モデルを用いて近似推論のアルゴリズムを解析する。
完全データモデルマッチングの場合、レプリカ法から派生した静的順序パラメータの知識により、効率的なアルゴリズム更新が得られる。
論文 参考訳(メタデータ) (2020-01-14T17:22:02Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。