論文の概要: A General Framework for Consistent Structured Prediction with Implicit
Loss Embeddings
- arxiv url: http://arxiv.org/abs/2002.05424v1
- Date: Thu, 13 Feb 2020 10:30:04 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-01 13:06:24.862808
- Title: A General Framework for Consistent Structured Prediction with Implicit
Loss Embeddings
- Title(参考訳): 不要な損失埋め込みを用いた一貫した構造予測のための一般フレームワーク
- Authors: Carlo Ciliberto, Lorenzo Rosasco, Alessandro Rudi
- Abstract要約: 構造化予測のための理論的・アルゴリズム的な枠組みを提案し,解析する。
問題に対して適切な幾何を暗黙的に定義する、損失関数の大規模なクラスについて検討する。
出力空間を無限の濃度で扱うとき、推定子の適切な暗黙の定式化が重要であることが示される。
- 参考スコア(独自算出の注目度): 113.15416137912399
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We propose and analyze a novel theoretical and algorithmic framework for
structured prediction. While so far the term has referred to discrete output
spaces, here we consider more general settings, such as manifolds or spaces of
probability measures. We define structured prediction as a problem where the
output space lacks a vectorial structure. We identify and study a large class
of loss functions that implicitly defines a suitable geometry on the problem.
The latter is the key to develop an algorithmic framework amenable to a sharp
statistical analysis and yielding efficient computations. When dealing with
output spaces with infinite cardinality, a suitable implicit formulation of the
estimator is shown to be crucial.
- Abstract(参考訳): 構造化予測のための新しい理論的およびアルゴリズム的枠組みを提案し,解析する。
これまでこの用語は離散出力空間を指してきたが、ここでは多様体や確率測度の空間のようなより一般的な設定を考える。
出力空間がベクトル構造を持たない問題として構造化予測を定義する。
問題に対して適切な幾何を暗黙的に定義する大きな損失関数のクラスを特定し,研究する。
後者は、鋭利な統計分析と効率的な計算を可能にするアルゴリズムフレームワークを開発するための鍵である。
出力空間を無限の濃度で扱うとき、推定子の適切な暗黙の定式化が重要であることが示される。
関連論文リスト
- On Probabilistic Embeddings in Optimal Dimension Reduction [1.2085509610251701]
次元減少アルゴリズムは多くのデータサイエンスパイプラインの重要な部分である。
広く利用されているにもかかわらず、多くの非線形次元還元アルゴリズムは理論的観点からは理解されていない。
論文 参考訳(メタデータ) (2024-08-05T12:46:21Z) - Structured Prediction in Online Learning [66.36004256710824]
オンライン学習環境における構造化予測のための理論的・アルゴリズム的枠組みについて検討する。
このアルゴリズムは教師付き学習環境からの最適アルゴリズムの一般化であることを示す。
本稿では,非定常データ分布,特に逆データを含む2番目のアルゴリズムについて考察する。
論文 参考訳(メタデータ) (2024-06-18T07:45:02Z) - Consciousness-Inspired Spatio-Temporal Abstractions for Better Generalization in Reinforcement Learning [83.41487567765871]
Skipperはモデルベースの強化学習フレームワークである。
これは、与えられたタスクをより小さく、より管理しやすいサブタスクに自動的に一般化する。
環境の関連部分には、スパースな意思決定と集中した抽象化を可能にする。
論文 参考訳(メタデータ) (2023-09-30T02:25:18Z) - On Certified Generalization in Structured Prediction [1.0152838128195467]
構造化予測では、対象オブジェクトは独立成分に分解されない豊富な内部構造を持つ。
一般化の速度は、構造化された例の数だけでなく、その大きさでスケールする、構造化予測のための新しいPAC-ベイジアンリスクバウンドを提案する。
論文 参考訳(メタデータ) (2023-06-15T13:15:26Z) - Neuro-Symbolic Entropy Regularization [78.16196949641079]
構造化予測では、目的は構造化されたオブジェクトをエンコードする多くの出力変数を共同で予測することである。
エントロピー正則化(Entropy regularization)という1つのアプローチは、決定境界が低確率領域にあるべきであることを示唆している。
我々は、モデルが有効対象を確実に予測することを奨励する損失、ニューロシンボリックエントロピー正規化を提案する。
論文 参考訳(メタデータ) (2022-01-25T06:23:10Z) - Fractal Structure and Generalization Properties of Stochastic
Optimization Algorithms [71.62575565990502]
最適化アルゴリズムの一般化誤差は、その一般化尺度の根底にあるフラクタル構造の複雑性'にバウンドできることを示す。
さらに、特定の問題(リニア/ロジスティックレグレッション、隠れ/層ニューラルネットワークなど)とアルゴリズムに対して、結果をさらに専門化します。
論文 参考訳(メタデータ) (2021-06-09T08:05:36Z) - Learning Output Embeddings in Structured Prediction [73.99064151691597]
構造化予測に対する強力で柔軟なアプローチは、予測される構造化対象を潜在的に無限次元の特徴空間に埋め込むことである。
原空間における予測は、前像問題の解法により計算される。
本研究では,新しい特徴空間に出力埋め込みと回帰関数の有限近似を共同で学習することを提案する。
論文 参考訳(メタデータ) (2020-07-29T09:32:53Z) - Computing Large-Scale Matrix and Tensor Decomposition with Structured
Factors: A Unified Nonconvex Optimization Perspective [33.19643734230432]
本稿では、構造化行列とテンソル因子化の計算的側面に関する包括的なチュートリアルを提供する。
まず、多種多様な制約を伴う幅広い因数分解問題をカバーする一般化最適化理論から始める。
そして、私たちは、これらの導入原則の下で、特定のアルゴリズム設計を示すために、フードの下に進みます。
論文 参考訳(メタデータ) (2020-06-15T07:19:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。