論文の概要: On the Validation of Gibbs Algorithms: Training Datasets, Test Datasets
and their Aggregation
- arxiv url: http://arxiv.org/abs/2306.12380v1
- Date: Wed, 21 Jun 2023 16:51:50 GMT
- ステータス: 処理完了
- システム内更新日: 2023-06-22 12:39:41.668991
- Title: On the Validation of Gibbs Algorithms: Training Datasets, Test Datasets
and their Aggregation
- Title(参考訳): ギブズアルゴリズムの検証について--トレーニングデータセット,テストデータセットとその集約
- Authors: Samir M. Perlaza, I\~naki Esnaola, Gaetan Bisson, H. Vincent Poor
- Abstract要約: Gibbsアルゴリズム(GA)のトレーニングデータへの依存を解析的に特徴付ける。
この記述により、異なるデータセットでトレーニングされたGAのトレーニングエラーとテストエラーを含む明示的な表現の開発が可能になる。
- 参考スコア(独自算出の注目度): 70.540936204654
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The dependence on training data of the Gibbs algorithm (GA) is analytically
characterized. By adopting the expected empirical risk as the performance
metric, the sensitivity of the GA is obtained in closed form. In this case,
sensitivity is the performance difference with respect to an arbitrary
alternative algorithm. This description enables the development of explicit
expressions involving the training errors and test errors of GAs trained with
different datasets. Using these tools, dataset aggregation is studied and
different figures of merit to evaluate the generalization capabilities of GAs
are introduced. For particular sizes of such datasets and parameters of the
GAs, a connection between Jeffrey's divergence, training and test errors is
established.
- Abstract(参考訳): Gibbsアルゴリズム(GA)のトレーニングデータへの依存を解析的に特徴付ける。
期待される経験的リスクを性能指標として採用することにより、GAの感度を閉じた形で得られる。
この場合、感度は任意の代替アルゴリズムに対する性能の差である。
この記述により、異なるデータセットでトレーニングされたGAのトレーニングエラーとテストエラーを含む明示的な表現の開発が可能になる。
これらのツールを用いて、データセットアグリゲーションを研究し、GAの一般化能力を評価するために、さまざまなメリットの指標を導入する。
このようなデータセットとガスのパラメータの特定のサイズでは、jeffreyの発散、トレーニング、テストエラーの関連が確立される。
関連論文リスト
- A novel approach to graph distinction through GENEOs and permutants [0.0]
本稿では、同型への$r$正則グラフの識別にGENEOsを用いる方法について検討する。
実験の結果, GENEOsは$r$規則グラフの比較において, 効率と計算コストとの間に良い妥協をもたらすことがわかった。
genEOsは機械学習における差別的問題に対する汎用的なアプローチである。
論文 参考訳(メタデータ) (2024-06-12T09:53:14Z) - Grammatical Error Correction via Mixed-Grained Weighted Training [68.94921674855621]
文法的誤り訂正(英: Grammatical Error Correction, GEC)は、自然文における文法的誤りを自動的に補正することを目的としている。
MainGECは、データアノテーションの正確性と潜在的な多様性の固有の相違に基づいて、トークンレベルおよび文レベルトレーニングウェイトを設計する。
論文 参考訳(メタデータ) (2023-11-23T08:34:37Z) - Structure-Aware Code Vulnerability Analysis With Graph Neural Networks [0.0]
本研究では,ソフトウェアコードの脆弱性検出におけるグラフニューラルネットワーク(GNN)の有効性について検討する。
主な焦点は、脆弱なコードセグメントを特定し、それらの固定バージョンと区別する際のGNNの一般的な適用性を評価することである。
実験により、特定のグラフ要素のプルーニングや特定の種類のコード表現の排除など、特定のモデル構成がパフォーマンスを著しく向上させることが示された。
論文 参考訳(メタデータ) (2023-07-21T09:35:29Z) - Studying Generalization Through Data Averaging [0.0]
本研究では,異なるデータセットのサンプルに対する差の平均から得られる一般化ギャップと,列車および試験性能について検討する。
我々はSGDノイズの関数として一般化ギャップとモデルトレインとテスト性能の相違についていくつかの側面を予測した。
論文 参考訳(メタデータ) (2022-06-28T00:03:40Z) - Modeling the Data-Generating Process is Necessary for Out-of-Distribution Generalization [23.302060306322506]
実世界のデータは、しばしば異なる属性に対して複数の分散シフトを持つ。
最先端のDGアルゴリズムは、すべてのシフトに対して一貫してうまく動作しない。
我々は、データ生成プロセスに関する知識を用いて正規化のための正しい独立制約を適応的に識別し、適用するアルゴリズムであるCausally Adaptive Constraint Minimization (CACM)を開発した。
論文 参考訳(メタデータ) (2022-06-15T22:35:06Z) - Augmentation-Aware Self-Supervision for Data-Efficient GAN Training [68.81471633374393]
識別器が過度に適合する傾向があるため、限られたデータでGANを訓練することは困難である。
本稿では,拡張データの拡張パラメータを予測する,拡張型自己教師型識別器を提案する。
本稿では,クラス条件の BigGAN と非条件の StyleGAN2 アーキテクチャを用いた State-of-the-art (SOTA) 手法と比較する。
論文 参考訳(メタデータ) (2022-05-31T10:35:55Z) - BCDAG: An R package for Bayesian structure and Causal learning of
Gaussian DAGs [77.34726150561087]
観測データから因果関係の発見と因果関係を推定するためのRパッケージを提案する。
我々の実装は、観測回数とともに効率的にスケールし、DAGが十分にスパースであるたびに、データセット内の変数の数を削減します。
次に、実際のデータセットとシミュレーションデータセットの両方で、主な機能とアルゴリズムを説明します。
論文 参考訳(メタデータ) (2022-01-28T09:30:32Z) - Learning Curves for SGD on Structured Features [23.40229188549055]
本研究では,学習中におけるテストエラーを正確に予測するために,特徴空間内のデータの幾何学が重要であることを示す。
提案手法は,学習中のテストエラーを正確に予測するためには,特徴空間内のデータの幾何をモデル化することが極めて重要であることを示す。
論文 参考訳(メタデータ) (2021-06-04T20:48:20Z) - On the Benefits of Invariance in Neural Networks [56.362579457990094]
データ拡張によるトレーニングは、リスクとその勾配をよりよく見積もることを示し、データ拡張でトレーニングされたモデルに対して、PAC-Bayes一般化を提供する。
また,データ拡張と比べ,平均化は凸損失を伴う場合の一般化誤差を低減し,PAC-Bayes境界を狭めることを示した。
論文 参考訳(メタデータ) (2020-05-01T02:08:58Z) - Asymptotic Analysis of an Ensemble of Randomly Projected Linear
Discriminants [94.46276668068327]
[1]では、ランダムに投影された線形判別式のアンサンブルを用いてデータセットを分類する。
我々は,計算コストのかかるクロスバリデーション推定器の代替として,誤分類確率の一貫した推定器を開発する。
また、実データと合成データの両方で投影次元を調整するための推定器の使用を実証する。
論文 参考訳(メタデータ) (2020-04-17T12:47:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。