論文の概要: Teaching the Old Dog New Tricks: Supervised Learning with Constraints
- arxiv url: http://arxiv.org/abs/2002.10766v2
- Date: Fri, 26 Feb 2021 16:39:24 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-28 20:15:54.050905
- Title: Teaching the Old Dog New Tricks: Supervised Learning with Constraints
- Title(参考訳): 老犬に新しいトリックを教える:制約による教師付き学習
- Authors: Fabrizio Detassis, Michele Lombardi, Michela Milano
- Abstract要約: 機械学習に制約サポートを追加することは、データ駆動型AIシステムにおいて際立った問題に対処する可能性がある。
既存のアプローチでは、MLトレーニングに制約付き最適化手法を適用し、モデル設計を調整することによって制約満足度を強制するか、あるいは出力を修正するために制約を使用するのが一般的である。
そこで本研究では,教師付きML手法に対する制約満足度を,最先端制約解決器の直接利用により,それぞれ異なる,補完的な制約満足度に基づく戦略について検討する。
- 参考スコア(独自算出の注目度): 18.88930622054883
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Adding constraint support in Machine Learning has the potential to address
outstanding issues in data-driven AI systems, such as safety and fairness.
Existing approaches typically apply constrained optimization techniques to ML
training, enforce constraint satisfaction by adjusting the model design, or use
constraints to correct the output. Here, we investigate a different,
complementary, strategy based on "teaching" constraint satisfaction to a
supervised ML method via the direct use of a state-of-the-art constraint
solver: this enables taking advantage of decades of research on constrained
optimization with limited effort. In practice, we use a decomposition scheme
alternating master steps (in charge of enforcing the constraints) and learner
steps (where any supervised ML model and training algorithm can be employed).
The process leads to approximate constraint satisfaction in general, and
convergence properties are difficult to establish; despite this fact, we found
empirically that even a na\"ive setup of our approach performs well on ML tasks
with fairness constraints, and on classical datasets with synthetic
constraints.
- Abstract(参考訳): 機械学習に制約サポートを追加することで、安全性や公正性など、データ駆動型AIシステムにおける卓越した問題に対処することが可能になる。
既存のアプローチでは、MLトレーニングに制約付き最適化手法を適用し、モデル設計を調整することによって制約満足度を強制するか、あるいは出力を修正するために制約を使用するのが一般的である。
本稿では,最先端制約解法を直接使用することにより,教師付きml法に対する制約満足度を「指導」することに基づく,異なる補完的戦略について検討する。
実例では、マスターステップ(制約の強化を担当する)とラーナステップ(教師付きMLモデルとトレーニングアルゴリズムを併用できる)を交互に行う分解方式を用いる。
このプロセスは一般に近似的な制約満足度をもたらし、収束特性の確立は困難である。この事実にもかかわらず、我々のアプローチの「Na\」的なセットアップでさえ、フェアネス制約のあるMLタスクや、合成制約のある古典的データセットでうまく機能することを実証的に見出した。
関連論文リスト
- Learning Constrained Optimization with Deep Augmented Lagrangian Methods [60.94111369773497]
機械学習(ML)モデルは、制約付き最適化ソルバをエミュレートするために訓練される。
本稿では,MLモデルを用いて2つの解推定を直接予測する手法を提案する。
これにより、双対目的が損失関数であるエンドツーエンドのトレーニングスキームと、双対上昇法をエミュレートした原始的実現可能性への解推定を可能にする。
論文 参考訳(メタデータ) (2024-03-06T04:43:22Z) - Deep Neural Network for Constraint Acquisition through Tailored Loss
Function [0.0]
データから制約を学習することの重要性は、実世界の問題解決における潜在的な応用によって裏付けられている。
この研究は、シンボリック回帰に基づくディープニューラルネットワーク(DNN)に基づく新しいアプローチを導入する。
論文 参考訳(メタデータ) (2024-03-04T13:47:33Z) - LeTO: Learning Constrained Visuomotor Policy with Differentiable
Trajectory Optimization [1.3706331473063884]
本稿では,可微分軌道最適化による制約付きビジュモータポリシーの学習手法であるLeTOを紹介する。
シミュレーションでは、LeTOは最先端の模倣学習手法に匹敵する成功率を達成する。
実世界の実験では、制約クリティカルなタスクを処理するためにLeTOをデプロイしました。
論文 参考訳(メタデータ) (2024-01-30T23:18:35Z) - Resilient Constrained Reinforcement Learning [87.4374430686956]
本稿では,複数の制約仕様を事前に特定しない制約付き強化学習(RL)のクラスについて検討する。
報酬訓練目標と制約満足度との間に不明確なトレードオフがあるため、適切な制約仕様を特定することは困難である。
我々は、ポリシーと制約仕様を一緒に検索する新しい制約付きRLアプローチを提案する。
論文 参考訳(メタデータ) (2023-12-28T18:28:23Z) - Neural Fields with Hard Constraints of Arbitrary Differential Order [61.49418682745144]
我々は、ニューラルネットワークに厳しい制約を課すための一連のアプローチを開発する。
制約は、ニューラルネットワークとそのデリバティブに適用される線形作用素として指定することができる。
私たちのアプローチは、広範囲の現実世界のアプリケーションで実証されています。
論文 参考訳(メタデータ) (2023-06-15T08:33:52Z) - Resilient Constrained Learning [94.27081585149836]
本稿では,学習課題を同時に解決しながら,要求に適応する制約付き学習手法を提案する。
我々はこの手法を、その操作を変更することで破壊に適応する生態システムを記述する用語に因んで、レジリエントな制約付き学習と呼ぶ。
論文 参考訳(メタデータ) (2023-06-04T18:14:18Z) - Stochastic Methods for AUC Optimization subject to AUC-based Fairness
Constraints [51.12047280149546]
公正な予測モデルを得るための直接的なアプローチは、公正な制約の下で予測性能を最適化することでモデルを訓練することである。
フェアネスを考慮した機械学習モデルのトレーニング問題を,AUCに基づくフェアネス制約のクラスを対象とする最適化問題として定式化する。
フェアネス測定値の異なる実世界のデータに対するアプローチの有効性を実証する。
論文 参考訳(メタデータ) (2022-12-23T22:29:08Z) - Policy Optimization with Linear Temporal Logic Constraints [37.27882290236194]
本稿では,線形時間論理制約を用いた政策最適化の問題点について考察する。
我々は,タスク満足度とコスト最適性の両方を保証するために,サンプル複雑性分析を楽しむモデルベースアプローチを開発した。
論文 参考訳(メタデータ) (2022-06-20T02:58:02Z) - Constrained Model-Free Reinforcement Learning for Process Optimization [0.0]
強化学習(Reinforcement Learning, RL)は、非線形最適制御問題を扱うための制御手法である。
展示された約束にもかかわらず、RLは産業的な実践への顕著な翻訳をまだ見ていない。
確率の高い共同確率制約の満足度を保証できる「オークル」支援型制約付きQ-ラーニングアルゴリズムを提案する。
論文 参考訳(メタデータ) (2020-11-16T13:16:22Z) - Responsive Safety in Reinforcement Learning by PID Lagrangian Methods [74.49173841304474]
ラグランジアン法は振動とオーバーシュートを示し、安全強化学習に適用すると制約違反行動を引き起こす。
制約関数の微分を利用する新しいラグランジュ乗算器更新法を提案する。
我々はPIDラグランジアン法を深部RLに適用し、安全RLベンチマークであるSafety Gymにおける新しい技術状態を設定する。
論文 参考訳(メタデータ) (2020-07-08T08:43:14Z) - Learning Constraints from Locally-Optimal Demonstrations under Cost
Function Uncertainty [6.950510860295866]
本稿では,最適化されたコスト関数が学習者に不確実な地域最適実証からパラメトリック制約を学習するアルゴリズムを提案する。
本手法では、混合整数線形プログラム(MILP)における実演のKKT最適条件を用いて、実演の局所的最適性に整合した制約を学習する。
7-DOFアームと四重項の制約を学習することで高次元制約とシステムの評価を行い、競合する制約学習手法よりも優れており、環境における新しい制約満足軌道の計画に効果的に利用できることを示す。
論文 参考訳(メタデータ) (2020-01-25T15:57:48Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。