論文の概要: Fractal Dimension Generalization Measure
- arxiv url: http://arxiv.org/abs/2012.12384v1
- Date: Tue, 22 Dec 2020 22:04:32 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-26 07:40:38.903808
- Title: Fractal Dimension Generalization Measure
- Title(参考訳): フラクタル次元一般化尺度
- Authors: Valeri Alexiev
- Abstract要約: 本論文は"Predicting Generalization in Deep Learning"コンペティションの一部である。
フラクタル次元の概念を用いて決定境界の複雑さを分析し,その手法に基づく一般化尺度を開発する。
- 参考スコア(独自算出の注目度): 0.2635832975589208
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Developing a robust generalization measure for the performance of machine
learning models is an important and challenging task. A lot of recent research
in the area focuses on the model decision boundary when predicting
generalization. In this paper, as part of the "Predicting Generalization in
Deep Learning" competition, we analyse the complexity of decision boundaries
using the concept of fractal dimension and develop a generalization measure
based on that technique.
- Abstract(参考訳): 機械学習モデルのパフォーマンスに対する堅牢な一般化尺度の開発は、重要かつ困難な課題である。
この分野の最近の多くの研究は、一般化を予測する際のモデル決定境界に焦点を当てている。
本稿では,「深層学習における予測的一般化」の競争の一環として,フラクタル次元の概念を用いて決定境界の複雑さを分析し,その手法に基づく一般化尺度を開発する。
関連論文リスト
- On the Limitations of Fractal Dimension as a Measure of Generalization [17.38382314570976]
ニューラルネットワークの一般化ギャップの境界と予測は、理論的機械学習における中心的なオープンな問題である。
ニューラルネットワークの最適化トラジェクトリをモデル化するためのフラクタルの枠組みを提案し、一般化境界を動機付け、軌道のフラクタル次元に基づいて測度を測る。
本稿では、これらの持続的ホモロジーに基づく一般化尺度の実験的評価を行い、詳細な統計分析を行う。
論文 参考訳(メタデータ) (2024-06-04T11:56:19Z) - Consciousness-Inspired Spatio-Temporal Abstractions for Better Generalization in Reinforcement Learning [83.41487567765871]
Skipperはモデルベースの強化学習フレームワークである。
これは、与えられたタスクをより小さく、より管理しやすいサブタスクに自動的に一般化する。
環境の関連部分には、スパースな意思決定と集中した抽象化を可能にする。
論文 参考訳(メタデータ) (2023-09-30T02:25:18Z) - PAC-Bayes Compression Bounds So Tight That They Can Explain
Generalization [48.26492774959634]
線形部分空間におけるニューラルネットワークパラメータの量子化に基づく圧縮手法を開発した。
我々は、オッカムのカミソリをカプセル化した大きなモデルを、以前に知られていたよりもはるかに大きな範囲に圧縮できることを発見した。
論文 参考訳(メタデータ) (2022-11-24T13:50:16Z) - The Two Dimensions of Worst-case Training and the Integrated Effect for
Out-of-domain Generalization [95.34898583368154]
機械学習モデルをトレーニングするための,新しい,シンプルで効果的な一般化を提案する。
二つの次元に沿ったWorst-case」という概念にちなむW2D法を命名する。
論文 参考訳(メタデータ) (2022-04-09T04:14:55Z) - Towards Principled Disentanglement for Domain Generalization [90.9891372499545]
機械学習モデルの根本的な課題は、アウト・オブ・ディストリビューション(OOD)データへの一般化である。
私たちはまず、DEC(Disentanglement-Constrained Domain Generalization)と呼ばれる制約付き最適化としてOOD一般化問題を定式化する。
この変換に基づいて、結合表現の不絡合と領域一般化のための原始双対アルゴリズムを提案する。
論文 参考訳(メタデータ) (2021-11-27T07:36:32Z) - Generalization Bounds For Meta-Learning: An Information-Theoretic
Analysis [8.028776552383365]
本稿では,従来の学習から学習までのフレームワークと,モデルに依存しないメタ学習アルゴリズムの両方について,汎用的な理解を提案する。
我々は,MAMLの変種に対するデータ依存の一般化を提供する。
論文 参考訳(メタデータ) (2021-09-29T17:45:54Z) - Evaluation of Complexity Measures for Deep Learning Generalization in
Medical Image Analysis [77.34726150561087]
PAC-ベイズ平坦度とパスノルムに基づく測度は、モデルとデータの組み合わせについて最も一貫した説明をもたらす。
また,乳房画像に対するマルチタスク分類とセグメンテーションのアプローチについても検討した。
論文 参考訳(メタデータ) (2021-03-04T20:58:22Z) - Robustness to Augmentations as a Generalization metric [0.0]
一般化とは、目に見えないドメインを予測するモデルの能力です。
拡張に頑健なモデルは、そうでないモデルよりも一般化可能であるという概念を用いて、モデルの一般化性能を予測する手法を提案する。
提案手法は、ディープラーニングにおける一般化予測に関するNeurIPSコンペティションの最初のランナーアップソリューションであった。
論文 参考訳(メタデータ) (2021-01-16T15:36:38Z) - Predicting Generalization in Deep Learning via Local Measures of
Distortion [7.806155368334511]
近似や情報理論で開発された複雑性対策に訴えることで、深層学習の一般化を研究する。
我々は,PCA,GMM,SVMといった単純なベクトル量子化手法が,階層的に深層抽出に応用した場合の精神を捉えていることを示す。
論文 参考訳(メタデータ) (2020-12-13T05:46:46Z) - Representation Based Complexity Measures for Predicting Generalization
in Deep Learning [0.0]
ディープニューラルネットワークは、非常に過度にパラメータ化されているにもかかわらず、一般化することができる。
近年の研究では、様々な観点からこの現象を検証している。
内部表現の質の観点から一般化の解釈を提供する。
論文 参考訳(メタデータ) (2020-12-04T18:53:44Z) - In Search of Robust Measures of Generalization [79.75709926309703]
我々は、一般化誤差、最適化誤差、過大なリスクのバウンダリを開発する。
経験的に評価すると、これらの境界の大部分は数値的に空白である。
我々は、分散ロバストネスの枠組みの中で、一般化対策を評価するべきであると論じる。
論文 参考訳(メタデータ) (2020-10-22T17:54:25Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。