論文の概要: Generative modeling through internal high-dimensional chaotic activity
- arxiv url: http://arxiv.org/abs/2405.10822v1
- Date: Fri, 17 May 2024 14:43:30 GMT
- ステータス: 処理完了
- システム内更新日: 2024-05-20 15:53:32.537703
- Title: Generative modeling through internal high-dimensional chaotic activity
- Title(参考訳): 内部高次元カオス活動による生成モデリング
- Authors: Samantha J. Fournier, Pierfrancesco Urbani,
- Abstract要約: 生成モデリングは、トレーニングデータセットの統計特性が類似した新しいデータポイントを作成することを目的としている。
本稿では,学習データセットから新たなデータポイントを生成する手段として,高次元カオスシステムの内部カオス力学を用いる方法を検討する。
単純な学習ルールは、一連のバニラアーキテクチャでこの目標を達成することができ、標準精度測定によって生成されたデータポイントの品質を特徴付けることができることを示す。
- 参考スコア(独自算出の注目度): 4.005483185111992
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Generative modeling aims at producing new datapoints whose statistical properties resemble the ones in a training dataset. In recent years, there has been a burst of machine learning techniques and settings that can achieve this goal with remarkable performances. In most of these settings, one uses the training dataset in conjunction with noise, which is added as a source of statistical variability and is essential for the generative task. Here, we explore the idea of using internal chaotic dynamics in high-dimensional chaotic systems as a way to generate new datapoints from a training dataset. We show that simple learning rules can achieve this goal within a set of vanilla architectures and characterize the quality of the generated datapoints through standard accuracy measures.
- Abstract(参考訳): 生成モデリングは、トレーニングデータセットの統計特性が類似した新しいデータポイントを作成することを目的としている。
近年,この目標を達成するための機械学習技術や設定が,目覚ましいパフォーマンスで急増している。
これらの設定のほとんどでは、ノイズとともにトレーニングデータセットを使用し、これは統計的変動の源として追加され、生成タスクに必須である。
本稿では,学習データセットから新たなデータポイントを生成する手段として,高次元カオスシステムの内部カオス力学を用いる方法を検討する。
単純な学習ルールは、一連のバニラアーキテクチャでこの目標を達成することができ、標準精度測定によって生成されたデータポイントの品質を特徴付けることができることを示す。
関連論文リスト
- Meta-Statistical Learning: Supervised Learning of Statistical Inference [59.463430294611626]
この研究は、大きな言語モデル(LLM)の成功を駆動するツールと原則が、分散レベルのタスクに取り組むために再利用可能であることを実証している。
本稿では,統計的推論タスクを教師付き学習問題として再構成するマルチインスタンス学習に触発されたメタ統計学習を提案する。
論文 参考訳(メタデータ) (2025-02-17T18:04:39Z) - Evaluating Sample Utility for Data Selection by Mimicking Model Weights [12.056542160711718]
ファンデーションモデルは、しばしばノイズ、バイアス、無関係な情報を含む大規模なWebcrawledデータセットに基づいてトレーニングされている。
我々は,新しいデータ品質指標であるMimic Scoreを用いて,効率的なモデルベースアプローチを提案する。
学習のためのサンプルを優先し,効率的なフィルタを作成し,データ選択を自動化するフレームワークであるGrad-Mimicを開発した。
論文 参考訳(メタデータ) (2025-01-12T04:28:14Z) - Developing a Dataset-Adaptive, Normalized Metric for Machine Learning Model Assessment: Integrating Size, Complexity, and Class Imbalance [0.0]
精度、F1スコア、精度といった従来のメトリクスは、機械学習モデルを評価するために頻繁に使用される。
サイズ、特徴次元、クラス不均衡、信号対雑音比といったデータセット特性を取り入れたデータセット適応型正規化メトリックを示す。
論文 参考訳(メタデータ) (2024-12-10T07:10:00Z) - MBDS: A Multi-Body Dynamics Simulation Dataset for Graph Networks Simulators [4.5353840616537555]
物理現象をモデル化する主要な手法として,グラフネットワークシミュレータ (GNS) が登場している。
我々は,1D,2D,3Dシーンを含む高品質な物理シミュレーションデータセットを構築した。
私たちのデータセットの重要な特徴は、物理世界のより現実的なシミュレーションを促進する、正確な多体ダイナミクスを取り入れることである。
論文 参考訳(メタデータ) (2024-10-04T03:03:06Z) - Localized Gaussians as Self-Attention Weights for Point Clouds Correspondence [92.07601770031236]
本稿では,エンコーダのみのトランスフォーマーアーキテクチャのアテンションヘッドにおける意味的意味パターンについて検討する。
注意重みの修正はトレーニングプロセスの促進だけでなく,最適化の安定性の向上にも寄与する。
論文 参考訳(メタデータ) (2024-09-20T07:41:47Z) - Data Shapley in One Training Run [88.59484417202454]
Data Shapleyは、機械学習コンテキストにおけるデータのコントリビューションに寄与するための、原則化されたフレームワークを提供する。
既存のアプローチでは、計算集約的な異なるデータサブセット上の再学習モデルが必要である。
本稿では、対象とするデータモデルに対するスケーラブルなデータ属性を提供することにより、これらの制限に対処するIn-Run Data Shapleyを紹介する。
論文 参考訳(メタデータ) (2024-06-16T17:09:24Z) - Generating Survival Interpretable Trajectories and Data [2.4861619769660637]
本稿では,合成データセットと実データセットの数値実験を用いて,提案モデルの有効性と特性を実証する。
提案したモデルを実装するアルゴリズムのコードが公開されている。
論文 参考訳(メタデータ) (2024-02-19T18:02:10Z) - Federated Learning with Projected Trajectory Regularization [65.6266768678291]
フェデレーション学習は、ローカルデータを共有せずに、分散クライアントから機械学習モデルの共同トレーニングを可能にする。
連合学習における重要な課題の1つは、クライアントにまたがる識別できない分散データを扱うことである。
本稿では,データ問題に対処するための予測軌道正則化(FedPTR)を備えた新しいフェデレーション学習フレームワークを提案する。
論文 参考訳(メタデータ) (2023-12-22T02:12:08Z) - Learning to Continuously Optimize Wireless Resource in a Dynamic
Environment: A Bilevel Optimization Perspective [52.497514255040514]
この研究は、データ駆動メソッドが動的環境でリソース割り当て戦略を継続的に学び、最適化することを可能にする新しいアプローチを開発しています。
学習モデルが新たなエピソードに段階的に適応できるように、連続学習の概念を無線システム設計に組み込むことを提案する。
我々の設計は、異なるデータサンプルにまたがる公平性を保証する、新しい二段階最適化定式化に基づいている。
論文 参考訳(メタデータ) (2021-05-03T07:23:39Z) - Learning to Continuously Optimize Wireless Resource In Episodically
Dynamic Environment [55.91291559442884]
この研究は、データ駆動型手法が動的環境で継続的に学習し、最適化できる方法論を開発する。
本稿では,無線システム学習のモデリングプロセスに連続学習の概念を構築することを提案する。
我々の設計は、異なるデータサンプル間で「一定の公正性を保証する」新しいmin-maxの定式化に基づいている。
論文 参考訳(メタデータ) (2020-11-16T08:24:34Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。