論文の概要: Defensive Generation
- arxiv url: http://arxiv.org/abs/2602.21390v1
- Date: Tue, 24 Feb 2026 21:41:11 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-26 18:19:16.618111
- Title: Defensive Generation
- Title(参考訳): ディフェンシブジェネレーション
- Authors: Gabriele Farina, Juan Carlos Perdomo,
- Abstract要約: ディフェンシブ・ジェネレーション(Defensive Generation)は、無限のテストのクラスに関して、非ベルヌーリ結果のオンライン結果の識別不可能な生成モデルを効率的に生成する最初の方法である。
提案手法は, サンプル数においてほぼ直線的に動作し, 生成誤差に対して最適なT-1/2速度を実現する。
- 参考スコア(独自算出の注目度): 32.283056647528845
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We study the problem of efficiently producing, in an online fashion, generative models of scalar, multiclass, and vector-valued outcomes that cannot be falsified on the basis of the observed data and a pre-specified collection of computational tests. Our contributions are twofold. First, we expand on connections between online high-dimensional multicalibration with respect to an RKHS and recent advances in expected variational inequality problems, enabling efficient algorithms for the former. We then apply this algorithmic machinery to the problem of outcome indistinguishability. Our procedure, Defensive Generation, is the first to efficiently produce online outcome indistinguishable generative models of non-Bernoulli outcomes that are unfalsifiable with respect to infinite classes of tests, including those that examine higher-order moments of the generated distributions. Furthermore, our method runs in near-linear time in the number of samples and achieves the optimal, vanishing T^{-1/2} rate for generation error.
- Abstract(参考訳): 本研究では,スカラー,マルチクラス,ベクトル値の生成モデルをオンライン形式で効率的に生成する問題について検討する。
私たちの貢献は2倍です。
まず、RKHSに関するオンライン高次元マルチキャリブレーションと、近年の予測変動不等式問題との接続を拡大し、前者に対して効率的なアルゴリズムを実現する。
次に、このアルゴリズムを結果の不一致問題に適用する。
提案手法であるデフェンシブ・ジェネレーション(Defensive Generation)は,生成した分布の高次モーメント(高次モーメント,高次モーメント,高次モーメント(高次モーメント,高次モーメント)など)を含む無限のクラスにおいて,非ベルヌール結果のオンライン生成モデルを効率よく生成する最初の方法である。
さらに,本手法はサンプル数においてほぼ直線的に動作し,生成誤差に対して最適なT^{-1/2}速度を達成する。
関連論文リスト
- Fast Solvers for Discrete Diffusion Models: Theory and Applications of High-Order Algorithms [31.42317398879432]
現在の推論アプローチは主に、正確なシミュレーションと$tau$-leapingのような近似メソッドの2つのカテゴリに分類される。
本研究では,高次数値推論スキームの最初の拡張を離散拡散モデルに合わせることで,後者のカテゴリを推し進める。
提案手法を厳密に解析し,KL分散における$theta$-trapezoidal法の2次精度を確立する。
論文 参考訳(メタデータ) (2025-02-01T00:25:21Z) - Pretrained Reversible Generation as Unsupervised Visual Representation Learning [7.076111872035312]
本稿では,事前学習された連続生成モデルの生成過程を逆転させて教師なし表現を抽出する,事前学習可逆生成(PRG)を提案する。
PRGは教師なし生成モデルを効果的に再利用し、その高い能力を利用して下流タスクの堅牢で一般化可能な特徴抽出器として機能する。
提案手法は,64*64の解像度でImageNet上の78%のトップ1の精度を含む,生成モデルに基づく手法の最先端性能を実現するため,複数のベンチマークにおいて従来手法よりも一貫して優れていた。
論文 参考訳(メタデータ) (2024-11-29T08:24:49Z) - Double Machine Learning for Static Panel Models with Fixed Effects [0.0]
パネルデータのための新しい機械学習手法を開発した。
新しい手順は、よく知られた相関ランダム効果、グループ内およびファーストディファレンス推定器の拡張である。
弊社の手続きは、英国における投票行動に対する最低賃金の影響を再見積するものである。
論文 参考訳(メタデータ) (2023-12-13T14:34:12Z) - SequenceMatch: Imitation Learning for Autoregressive Sequence Modelling with Backtracking [60.109453252858806]
MLE(Maxum-likelihood)の目的は、高品質なシーケンスを自動回帰的に生成する下流のユースケースと一致しない。
我々は、模倣学習(IL)問題としてシーケンス生成を定式化する。
これにより、自己回帰モデルによって生成されるシーケンスの分布とデータセットからのシーケンスとの差異を最小化できる。
得られた手法であるSequenceMatchは、敵の訓練やアーキテクチャの変更なしに実装できる。
論文 参考訳(メタデータ) (2023-06-08T17:59:58Z) - Mutual Exclusivity Training and Primitive Augmentation to Induce
Compositionality [84.94877848357896]
最近のデータセットは、標準的なシーケンス・ツー・シーケンスモデルにおける体系的な一般化能力の欠如を露呈している。
本稿では,セq2seqモデルの振る舞いを分析し,相互排他バイアスの欠如と全例を記憶する傾向の2つの要因を同定する。
広範に使用されている2つの構成性データセット上で、標準的なシーケンス・ツー・シーケンスモデルを用いて、経験的改善を示す。
論文 参考訳(メタデータ) (2022-11-28T17:36:41Z) - DORE: Document Ordered Relation Extraction based on Generative Framework [56.537386636819626]
本稿では,既存のDocREモデルの根本原因について検討する。
本稿では,モデルが学習しやすく,決定論的な関係行列から記号列と順序列を生成することを提案する。
4つのデータセットに対する実験結果から,提案手法は生成型DocREモデルの性能を向上させることができることが示された。
論文 参考訳(メタデータ) (2022-10-28T11:18:10Z) - Optimization Variance: Exploring Generalization Properties of DNNs [83.78477167211315]
ディープニューラルネットワーク(DNN)のテストエラーは、しばしば二重降下を示す。
そこで本研究では,モデル更新の多様性を測定するために,新しい測度である最適化分散(OV)を提案する。
論文 参考訳(メタデータ) (2021-06-03T09:34:17Z) - Outlier-Robust Learning of Ising Models Under Dobrushin's Condition [57.89518300699042]
本研究では, サンプルの一定割合が逆向きに破壊されるような外乱条件下で, ドブルシンの条件を満たすIsingモデルの学習問題について検討する。
我々の主な成果は、ほぼ最適誤差保証を伴うこの問題に対して、計算効率のよい最初の頑健な学習アルゴリズムを提供することである。
論文 参考訳(メタデータ) (2021-02-03T18:00:57Z) - Causal Gradient Boosting: Boosted Instrumental Variable Regression [2.831053006774813]
本稿では,従来の勾配押し上げアルゴリズムに基づいて内在性バイアスを補正するBoostIVというアルゴリズムを提案する。
私たちのアプローチはデータ駆動です。つまり、研究者はターゲット関数の近似や楽器の選択の形でもスタンスを作らなくてもよいのです。
boostIVは既存の方法と同等に最悪であり、平均するとそれらの方法よりもはるかに優れています。
論文 参考訳(メタデータ) (2021-01-15T11:54:25Z) - Binary Matrix Factorisation via Column Generation [6.445605125467574]
本稿では,算術における低ランク二乗行列分解(BMF)の問題点について考察する。
混合整数線形プログラムとして問題を定式化し、列生成の大規模最適化手法を用いて解決する。
実世界のデータセットを用いた実験結果から,提案手法は高精度な因数分解を実現するのに有効であることが示された。
論文 参考訳(メタデータ) (2020-11-09T14:27:36Z) - Improving Maximum Likelihood Training for Text Generation with Density
Ratio Estimation [51.091890311312085]
本稿では,テキスト生成で遭遇する大規模なサンプル空間において,効率よく安定な自動回帰シーケンス生成モデルのトレーニング手法を提案する。
本手法は,品質と多様性の両面で,最大類似度推定や他の最先端シーケンス生成モデルよりも安定に優れている。
論文 参考訳(メタデータ) (2020-07-12T15:31:24Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。