論文の概要: On the Koopman-Based Generalization Bounds for Multi-Task Deep Learning
- arxiv url: http://arxiv.org/abs/2512.19199v1
- Date: Mon, 22 Dec 2025 09:36:24 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-23 18:54:32.695407
- Title: On the Koopman-Based Generalization Bounds for Multi-Task Deep Learning
- Title(参考訳): マルチタスク深層学習のためのクープマンに基づく一般化境界について
- Authors: Mahdi Mohammadigohari, Giuseppe Di Fatta, Giuseppe Nicosia, Panos M. Pardalos,
- Abstract要約: 本稿では,演算子理論を用いたマルチタスクディープニューラルネットワークの一般化境界を確立する。
筆者らは, 重み行列の小さな条件数を活用することによって, 従来の標準法に基づく手法よりも厳密な境界を求める。
- 参考スコア(独自算出の注目度): 3.924521334514384
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The paper establishes generalization bounds for multitask deep neural networks using operator-theoretic techniques. The authors propose a tighter bound than those derived from conventional norm based methods by leveraging small condition numbers in the weight matrices and introducing a tailored Sobolev space as an expanded hypothesis space. This enhanced bound remains valid even in single output settings, outperforming existing Koopman based bounds. The resulting framework maintains key advantages such as flexibility and independence from network width, offering a more precise theoretical understanding of multitask deep learning in the context of kernel methods.
- Abstract(参考訳): 本稿では,演算子理論を用いたマルチタスクディープニューラルネットワークの一般化境界を確立する。
著者らは、重み行列の小さな条件数を利用して、拡張された仮説空間としてのソボレフ空間を導入することにより、従来のノルム法より厳密な境界を提案する。
この拡張されたバウンダリは、単一出力設定でも有効であり、既存のKoopmanベースのバウンダリよりも優れています。
結果として得られるフレームワークは、ネットワーク幅からの柔軟性や独立性といった重要な利点を維持しており、カーネルメソッドのコンテキストにおけるマルチタスクの深層学習のより正確な理論的理解を提供する。
関連論文リスト
- Operator-Based Generalization Bound for Deep Learning: Insights on Multi-Task Learning [3.924521334514384]
本稿では,ベクトル値ニューラルネットワークとディープカーネル法のための新しい一般化境界を提案する。
クープマン法に係わる計算課題を軽減するため,ベクトル値ニューラルネットワークに適用可能なスケッチ技術を導入する。
我々は、ヒルベルト空間を再現する新しいディープラーニングフレームワーク、ディープベクトル値カーネルを提案する。
論文 参考訳(メタデータ) (2025-12-22T09:18:30Z) - Principled Multimodal Representation Learning [99.53621521696051]
マルチモーダル表現学習は、多様なデータモダリティを統合することにより、統一された表現空間を作ろうとする。
最近の進歩は、複数のモードの同時アライメントを調査しているが、いくつかの課題が残っている。
複数モーダルの同時アライメントを実現する新しいフレームワークであるPMRL(Principled Multimodal Representation Learning)を提案する。
論文 参考訳(メタデータ) (2025-07-23T09:12:25Z) - Generalization Analysis for Deep Contrastive Representation Learning [32.56004424242989]
本稿では,Deep Contrastive Representation Learningフレームワークにおける教師なしリスクの限界について述べる。
我々は損失増大手法を用いて、行列ノルムへの依存性とネットワーク深さへの暗黙的依存を減らす。
論文 参考訳(メタデータ) (2024-12-16T17:40:05Z) - Expressive Monotonic Neural Networks [1.0128808054306184]
ニューラルネットワークの出力のいくつかの入力に対する単調な依存は、ドメイン知識がそのような振る舞いを規定する多くのシナリオにおいて決定的な帰納的バイアスである。
入力の任意の部分集合における正確な単調依存を実現するために, 単一の残差接続を持つ重み制約アーキテクチャを提案する。
このアルゴリズムが、競争性能を達成するための強力で堅牢で解釈可能な識別器の訓練にどのように使われているかを示す。
論文 参考訳(メタデータ) (2023-07-14T17:59:53Z) - TANGOS: Regularizing Tabular Neural Networks through Gradient
Orthogonalization and Specialization [69.80141512683254]
TANGOS(Tbular Neural Gradient Orthogonalization and gradient)を紹介する。
TANGOSは、潜在ユニット属性上に構築された表の設定を正規化するための新しいフレームワークである。
提案手法は,他の一般的な正規化手法よりも優れ,サンプル外一般化性能の向上につながることを実証する。
論文 参考訳(メタデータ) (2023-03-09T18:57:13Z) - PAC-Bayes Compression Bounds So Tight That They Can Explain
Generalization [48.26492774959634]
線形部分空間におけるニューラルネットワークパラメータの量子化に基づく圧縮手法を開発した。
我々は、オッカムのカミソリをカプセル化した大きなモデルを、以前に知られていたよりもはるかに大きな範囲に圧縮できることを発見した。
論文 参考訳(メタデータ) (2022-11-24T13:50:16Z) - The Sample Complexity of One-Hidden-Layer Neural Networks [57.6421258363243]
本研究では,スカラー値を持つ一層ネットワークのクラスとユークリッドノルムで有界な入力について検討する。
隠蔽層重み行列のスペクトルノルムの制御は、一様収束を保証するには不十分であることを示す。
スペクトルノルム制御が十分であることを示す2つの重要な設定を解析する。
論文 参考訳(メタデータ) (2022-02-13T07:12:02Z) - Distance-Based Regularisation of Deep Networks for Fine-Tuning [116.71288796019809]
我々は,仮説クラスを,初期訓練前の重みを中心にした小さな球面に制約するアルゴリズムを開発した。
実験的な評価は、我々のアルゴリズムがうまく機能していることを示し、理論的な結果を裏付けるものである。
論文 参考訳(メタデータ) (2020-02-19T16:00:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。