論文の概要: LeStrat-Net: Lebesgue style stratification for Monte Carlo simulations powered by machine learning
- arxiv url: http://arxiv.org/abs/2412.13982v1
- Date: Wed, 18 Dec 2024 16:03:37 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-12-19 16:47:31.310927
- Title: LeStrat-Net: Lebesgue style stratification for Monte Carlo simulations powered by machine learning
- Title(参考訳): LeStrat-Net: 機械学習を利用したモンテカルロシミュレーションのためのLebesgueスタイルの階層化
- Authors: Kayoung Ban, Myeonghun Park, Raymundo Ramos,
- Abstract要約: モンテカルロサンプリングにおける階層化を回避する機械学習アルゴリズムを開発した。
我々は、ルベーグ積分でなされるような、サンプリングされる関数の高さに基づいて、積分の領域空間を分割する別の方法を使用する。
ニューラルネットワークの能力を利用して複雑な関数を学習し、これらの複雑な分割を予測し、ドメイン空間の大規模なサンプルを事前分類する。
- 参考スコア(独自算出の注目度): 0.0
- License:
- Abstract: We develop a machine learning algorithm to turn around stratification in Monte Carlo sampling. We use a different way to divide the domain space of the integrand, based on the height of the function being sampled, similar to what is done in Lebesgue integration. This means that isocontours of the function define regions that can have any shape depending on the behavior of the function. We take advantage of the capacity of neural networks to learn complicated functions in order to predict these complicated divisions and preclassify large samples of the domain space. From this preclassification we can select the required number of points to perform a number of tasks such as variance reduction, integration and even event selection. The network ultimately defines the regions with what it learned and is also used to calculate the multi-dimensional volume of each region.
- Abstract(参考訳): モンテカルロサンプリングにおける階層化を回避する機械学習アルゴリズムを開発した。
我々は、ルベーグ積分でなされるような、サンプリングされる関数の高さに基づいて、積分の領域空間を分割する別の方法を使用する。
これは、函数の等方性は、函数の振舞いに応じて任意の形状を持つことができる領域を定義することを意味する。
ニューラルネットワークの能力を利用して複雑な関数を学習し、これらの複雑な分割を予測し、ドメイン空間の大規模なサンプルを事前分類する。
この事前分類から、分散還元、統合、イベント選択のような多くのタスクを実行するために必要な点数を選択することができる。
このネットワークは最終的に学習した領域を定義し、各領域の多次元体積を計算するのにも使用される。
関連論文リスト
- Learning conditional distributions on continuous spaces [0.0]
多次元単位箱上の条件分布のサンプルベース学習について検討する。
我々は2つの異なるクラスタリングスキームを用いる: 1つは固定ラディウス球に基づいており、もう1つは近接する近傍にある。
我々は,ニューラルネットワークのトレーニングに近接する手法を取り入れることを提案する。
論文 参考訳(メタデータ) (2024-06-13T17:53:47Z) - Learning Representations on the Unit Sphere: Investigating Angular
Gaussian and von Mises-Fisher Distributions for Online Continual Learning [7.145581090959242]
本稿では,新たな損失関数を備えたメモリベース表現学習手法を提案する。
提案手法は,タスク境界がぼやけた標準的な評価シナリオと現実的なシナリオの両方において,現状の手法よりも優れていることを示す。
論文 参考訳(メタデータ) (2023-06-06T02:38:01Z) - Classified as unknown: A novel Bayesian neural network [0.0]
完全連結ニューラルネットワークのための効率の良いベイズ学習アルゴリズムを開発した。
多層パーセプトロンから多層パーセプトロンへの二元分類のための単一パーセプトロンのアルゴリズムを一般化する。
論文 参考訳(メタデータ) (2023-01-31T04:27:09Z) - Inducing Gaussian Process Networks [80.40892394020797]
本稿では,特徴空間と誘導点を同時に学習するシンプルなフレームワークであるGaussian Process Network (IGN)を提案する。
特に誘導点は特徴空間で直接学習され、複雑な構造化領域のシームレスな表現を可能にする。
実世界のデータセットに対する実験結果から,IGNは最先端の手法よりも大幅に進歩していることを示す。
論文 参考訳(メタデータ) (2022-04-21T05:27:09Z) - Feature Mining: A Novel Training Strategy for Convolutional Neural
Network [6.066543113636522]
本稿では,畳み込みニューラルネットワーク(CNN)のための新しいトレーニング戦略であるFeature Miningを提案する。
特徴の異なる部分に含まれる意味は異なるが、フィードフォワードの伝搬中にネットワークは必然的にローカル情報を失う。
局所的な特徴の学習を強化するために、Feature Miningは、完全な特徴を2つの補完的な部分に分割し、これらの分割された特徴を再利用して、ネットワークがより局所的な情報を学習できるようにする。
論文 参考訳(メタデータ) (2021-07-18T12:14:42Z) - Input Invex Neural Network [11.072628804821083]
接続された決定境界は、イメージセグメンテーション、クラスタリング、アルファシェープ、nD空間内の領域の定義など、いくつかのタスクで有用である。
本稿では,ニューラルネットワークを用いた凸関数構築のための2つの手法を提案する。
論文 参考訳(メタデータ) (2021-06-16T12:48:55Z) - Clustered Federated Learning via Generalized Total Variation
Minimization [83.26141667853057]
本研究では,分散ネットワーク構造を持つローカルデータセットの局所的(あるいはパーソナライズされた)モデルを学習するための最適化手法について検討する。
我々の主要な概念的貢献は、総変動最小化(GTV)としてフェデレーション学習を定式化することである。
私たちのアルゴリズムの主な貢献は、完全に分散化されたフェデレーション学習アルゴリズムです。
論文 参考訳(メタデータ) (2021-05-26T18:07:19Z) - Region Similarity Representation Learning [94.88055458257081]
Region similarity Representation Learning(ReSim)は、ローカリゼーションベースのタスクに対する自己監視型表現学習の新しいアプローチである。
ReSimはローカリゼーションのための地域表現とセマンティックイメージレベルの表現の両方を学びます。
競合するMoCo-v2ベースラインと比較して、ReSimがローカリゼーションと分類性能を大幅に向上させる表現をどのように学習するかを示します。
論文 参考訳(メタデータ) (2021-03-24T00:42:37Z) - Multi-task Supervised Learning via Cross-learning [102.64082402388192]
我々は,様々なタスクを解くことを目的とした回帰関数の集合を適合させることで,マルチタスク学習と呼ばれる問題を考える。
我々の新しい定式化では、これらの関数のパラメータを2つに分けて、互いに近づきながらタスク固有のドメインで学習する。
これにより、異なるドメインにまたがって収集されたデータが、互いのタスクにおける学習パフォーマンスを改善するのに役立つ、クロス・ファーティライズが促進される。
論文 参考訳(メタデータ) (2020-10-24T21:35:57Z) - Neural Subdivision [58.97214948753937]
本稿では,データ駆動型粗粒度モデリングの新しいフレームワークであるNeural Subdivisionを紹介する。
すべてのローカルメッシュパッチで同じネットワーク重みのセットを最適化するため、特定の入力メッシュや固定属、カテゴリに制約されないアーキテクチャを提供します。
単一の高分解能メッシュでトレーニングしても,本手法は新規な形状に対して合理的な区分を生成する。
論文 参考訳(メタデータ) (2020-05-04T20:03:21Z) - LRC-Net: Learning Discriminative Features on Point Clouds by Encoding
Local Region Contexts [65.79931333193016]
本稿では,LRC-Net(Local-Region-Context Network)を提案する。
LRC-Netは、局所領域内および周辺領域間の微粒なコンテキストを同時に符号化する。
その結果, LRC-Netは形状分類や形状分割の応用において最先端の手法と競合することがわかった。
論文 参考訳(メタデータ) (2020-03-18T14:34:08Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。