論文の概要: GenCtrl -- A Formal Controllability Toolkit for Generative Models
- arxiv url: http://arxiv.org/abs/2601.05637v1
- Date: Fri, 09 Jan 2026 08:50:02 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-12 17:41:49.91874
- Title: GenCtrl -- A Formal Controllability Toolkit for Generative Models
- Title(参考訳): GenCtrl - 生成モデルのための形式的制御性ツールキット
- Authors: Emily Cheng, Carmen Amo Alonso, Federico Danieli, Arno Blaas, Luca Zappella, Pau Rodriguez, Xavier Suau,
- Abstract要約: 対話環境における制御可能なモデルの集合を推定する新しいアルゴリズムを提案する。
モデル制御性は驚くほど脆弱であり,実験環境に強く依存していることが示される。
- 参考スコア(独自算出の注目度): 10.810813965290707
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: As generative models become ubiquitous, there is a critical need for fine-grained control over the generation process. Yet, while controlled generation methods from prompting to fine-tuning proliferate, a fundamental question remains unanswered: are these models truly controllable in the first place? In this work, we provide a theoretical framework to formally answer this question. Framing human-model interaction as a control process, we propose a novel algorithm to estimate the controllable sets of models in a dialogue setting. Notably, we provide formal guarantees on the estimation error as a function of sample complexity: we derive probably-approximately correct bounds for controllable set estimates that are distribution-free, employ no assumptions except for output boundedness, and work for any black-box nonlinear control system (i.e., any generative model). We empirically demonstrate the theoretical framework on different tasks in controlling dialogue processes, for both language models and text-to-image generation. Our results show that model controllability is surprisingly fragile and highly dependent on the experimental setting. This highlights the need for rigorous controllability analysis, shifting the focus from simply attempting control to first understanding its fundamental limits.
- Abstract(参考訳): 生成モデルがユビキタスになると、生成プロセスのきめ細かい制御が不可欠になる。
しかし、制御された生成法は、微調整による増殖を促すが、根本的な疑問は未解決のままである。
本研究では,この疑問に正式に答える理論的枠組みを提供する。
人-モデル相互作用を制御プロセスとして評価し,対話環境における制御可能なモデルの集合を推定する新しいアルゴリズムを提案する。
特に、我々は標本複雑性の関数として推定誤差を公式に保証する:分布のない制御可能な集合の推定値に対して、おそらくおよそ正しい境界を導出し、出力境界性以外の仮定を使わず、ブラックボックス非線形制御系(すなわち、生成モデル)で作業する。
我々は,言語モデルとテキスト・ツー・イメージ生成の両方において,対話処理の制御における異なるタスクに関する理論的枠組みを実証的に実証する。
その結果, モデル制御性は驚くほど脆弱であり, 実験環境に強く依存していることが示唆された。
これは厳密な制御可能性分析の必要性を強調し、コントロールを単に試みることから、その基本的な限界を最初に理解することへと焦点を移す。
関連論文リスト
- Neural Internal Model Control: Learning a Robust Control Policy via Predictive Error Feedback [16.46487826869775]
本稿では,モデルベース制御とRLベース制御を統合し,ロバスト性を高めるニューラル内部モデル制御を提案する。
我々のフレームワークは、剛体力学にニュートン・オイラー方程式を適用することで予測モデルを合理化し、複雑な高次元非線形性を捉える必要がなくなる。
本研究では,四足歩行ロボットと四足歩行ロボットにおけるフレームワークの有効性を実証し,最先端の手法と比較して優れた性能を実現する。
論文 参考訳(メタデータ) (2024-11-20T07:07:42Z) - CAR: Controllable Autoregressive Modeling for Visual Generation [100.33455832783416]
Controllable AutoRegressive Modeling (CAR)は、条件制御をマルチスケールの潜在変数モデリングに統合する新しいプラグイン・アンド・プレイフレームワークである。
CARは、制御表現を徐々に洗練し、キャプチャし、前訓練されたモデルの各自己回帰ステップに注入して生成プロセスを導く。
提案手法は,様々な条件にまたがって優れた制御性を示し,従来の手法に比べて画質の向上を実現している。
論文 参考訳(メタデータ) (2024-10-07T00:55:42Z) - Automatically Adaptive Conformal Risk Control [49.95190019041905]
本稿では,テストサンプルの難易度に適応して,統計的リスクの近似的条件制御を実現する手法を提案する。
我々のフレームワークは、ユーザが提供するコンディショニングイベントに基づく従来のコンディショニングリスク制御を超えて、コンディショニングに適した関数クラスのアルゴリズム的、データ駆動決定を行う。
論文 参考訳(メタデータ) (2024-06-25T08:29:32Z) - Controllability-Constrained Deep Network Models for Enhanced Control of
Dynamical Systems [4.948174943314265]
力学の知識を持たない力学系の制御は重要かつ困難な課題である。
ディープニューラルネットワーク(DNN)のような現代の機械学習アプローチは、制御入力と対応する状態観測出力から動的モデルの推定を可能にする。
制御性のあるデータから推定されるモデルを明確に拡張する制御理論法を提案する。
論文 参考訳(メタデータ) (2023-11-11T00:04:26Z) - Sparsity in Partially Controllable Linear Systems [56.142264865866636]
本研究では, 部分制御可能な線形力学系について, 基礎となる空間パターンを用いて検討する。
最適制御には無関係な状態変数を特徴付ける。
論文 参考訳(メタデータ) (2021-10-12T16:41:47Z) - Learn then Test: Calibrating Predictive Algorithms to Achieve Risk
Control [67.52000805944924]
Learn then Test (LTT)は、機械学習モデルを校正するフレームワークである。
私たちの主な洞察は、リスクコントロール問題を複数の仮説テストとして再設計することです。
我々は、コンピュータビジョンの詳細な実例を用いて、コア機械学習タスクの新しいキャリブレーション手法を提供するために、我々のフレームワークを使用します。
論文 参考訳(メタデータ) (2021-10-03T17:42:03Z) - Posterior Control of Blackbox Generation [126.33511630879713]
我々は、構造化潜在変数アプローチにより学習した離散制御状態を持つニューラルジェネレーションモデルの拡張を検討する。
この手法は標準ベンチマークよりも改善され、きめ細かい制御も可能である。
論文 参考訳(メタデータ) (2020-05-10T03:22:45Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。