論文の概要: Learning Implicitly with Noisy Data in Linear Arithmetic
- arxiv url: http://arxiv.org/abs/2010.12619v2
- Date: Tue, 7 Sep 2021 16:58:57 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-03 23:45:34.593043
- Title: Learning Implicitly with Noisy Data in Linear Arithmetic
- Title(参考訳): 線形算術における雑音データによる暗黙学習
- Authors: Alexander P. Rader, Ionela G. Mocanu, Vaishak Belle and Brendan Juba
- Abstract要約: PAC-セマンティックスにおける暗黙学習を拡張し、線形算術の言語における間隔としきい値の不確実性を扱う。
最適線形プログラミング対象制約の学習に対する我々の暗黙的アプローチは、実際的な明示的アプローチよりも著しく優れていることを示す。
- 参考スコア(独自算出の注目度): 94.66549436482306
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Robust learning in expressive languages with real-world data continues to be
a challenging task. Numerous conventional methods appeal to heuristics without
any assurances of robustness. While probably approximately correct (PAC)
Semantics offers strong guarantees, learning explicit representations is not
tractable, even in propositional logic. However, recent work on so-called
"implicit" learning has shown tremendous promise in terms of obtaining
polynomial-time results for fragments of first-order logic. In this work, we
extend implicit learning in PAC-Semantics to handle noisy data in the form of
intervals and threshold uncertainty in the language of linear arithmetic. We
prove that our extended framework keeps the existing polynomial-time complexity
guarantees. Furthermore, we provide the first empirical investigation of this
hitherto purely theoretical framework. Using benchmark problems, we show that
our implicit approach to learning optimal linear programming objective
constraints significantly outperforms an explicit approach in practice.
- Abstract(参考訳): 実世界のデータを持つ表現力のある言語でのロバストな学習は、引き続き困難な課題である。
多くの従来の手法は、堅牢性の保証なしにヒューリスティックに訴える。
おそらくほぼ正しい(PAC)セマンティックスは強い保証を提供するが、明示的な表現の学習は命題論理においても難解ではない。
しかし、いわゆる「単純化」学習に関する最近の研究は、一階述語論理の断片に対する多項式時間結果を得るという点で大きな期待を示している。
本研究では,PAC-Semanticsにおける暗黙学習を拡張して,線形算術言語における区間やしきい値の不確かさといったノイズデータを扱う。
拡張フレームワークが既存の多項式時間複雑性を保証することを証明します。
さらに,本手法を純粋に理論的な枠組みとして初めて実証的に検討する。
ベンチマーク問題を用いて, 最適線形計画対象制約を学習するための暗黙的アプローチが, 実際には明示的なアプローチを著しく上回っていることを示す。
関連論文リスト
- Interpretable Anomaly Detection via Discrete Optimization [1.7150329136228712]
本稿では,シーケンシャルデータから本質的に解釈可能な異常検出を学習するためのフレームワークを提案する。
この問題は計算的に困難であることを示し,制約最適化に基づく2つの学習アルゴリズムを開発した。
プロトタイプ実装を用いて,提案手法は精度とF1スコアの点で有望な結果を示す。
論文 参考訳(メタデータ) (2023-03-24T16:19:15Z) - Making Linear MDPs Practical via Contrastive Representation Learning [101.75885788118131]
マルコフ決定過程(MDP)における次元性の呪いに、低ランク表現を利用することで対処することが一般的である。
本稿では,効率的な表現学習を可能にしつつ,正規化を自動的に保証する線形MDPの代替的定義について考察する。
いくつかのベンチマークにおいて、既存の最先端モデルベースおよびモデルフリーアルゴリズムよりも優れた性能を示す。
論文 参考訳(メタデータ) (2022-07-14T18:18:02Z) - Improving Pre-trained Language Model Fine-tuning with Noise Stability
Regularization [94.4409074435894]
本稿では,LNSR(Layerwise Noise Stability Regularization)という,新規かつ効果的な微調整フレームワークを提案する。
具体的には、標準ガウス雑音を注入し、微調整モデルの隠れ表現を正規化することを提案する。
提案手法は,L2-SP,Mixout,SMARTなど他の最先端アルゴリズムよりも優れていることを示す。
論文 参考訳(メタデータ) (2022-06-12T04:42:49Z) - Exploring Viable Algorithmic Options for Learning from Demonstration
(LfD): A Parameterized Complexity Approach [0.0]
本稿では,パラメータ化複雑性解析を用いて,アルゴリズムの選択肢を体系的に探索する方法を示す。
環境、実演、ポリシーに対する多くの(しばしば同時に)制限に対して、我々の問題は、一般的にも、あるいは相対的に、効率的に解決できないことを示す。
論文 参考訳(メタデータ) (2022-05-10T15:54:06Z) - Stochastic convex optimization for provably efficient apprenticeship
learning [1.0609815608017066]
コスト関数が不明な大規模マルコフ決定プロセス(MDP)について検討する。
擬似学習の課題に対処するために凸最適化ツールを用いており、これは、限られた専門家による実証からポリシーを学習するものである。
論文 参考訳(メタデータ) (2021-12-31T19:47:57Z) - Efficient Performance Bounds for Primal-Dual Reinforcement Learning from
Demonstrations [1.0609815608017066]
本稿では,コスト関数の不明な大規模マルコフ決定プロセスについて考察し,限られた専門家による実証から政策を学習する問題に対処する。
既存の逆強化学習法には強力な理論的保証があるが、計算上は高価である。
ラグランジアン双対性を利用して理論と実践のギャップを埋める新しい双線型サドルポイントフレームワークを導入する。
論文 参考訳(メタデータ) (2021-12-28T05:47:24Z) - A Boosting Approach to Reinforcement Learning [59.46285581748018]
複雑度が状態数に依存しない意思決定プロセスにおける強化学習のための効率的なアルゴリズムについて検討する。
このような弱い学習手法の精度を向上させることができる効率的なアルゴリズムを提供する。
論文 参考訳(メタデータ) (2021-08-22T16:00:45Z) - Provably Efficient Reward-Agnostic Navigation with Linear Value
Iteration [143.43658264904863]
我々は、最小二乗値スタイルのアルゴリズムで一般的に使用される、より標準的なベルマン誤差の概念の下での反復が、ほぼ最適値関数の学習において強力なPAC保証を提供することを示す。
そこで本稿では,任意の(線形な)報酬関数に対して,最適に近いポリシーを学習するためにどのように使用できるかを示す。
論文 参考訳(メタデータ) (2020-08-18T04:34:21Z) - Can We Learn Heuristics For Graphical Model Inference Using
Reinforcement Learning? [114.24881214319048]
我々は、強化学習を用いて、高次条件ランダム場(CRF)における推論を解くためのプログラム、すなわち、ポリシーを学習できることを示します。
本手法は,ポテンシャルの形式に制約を加えることなく,推論タスクを効率的に解く。
論文 参考訳(メタデータ) (2020-04-27T19:24:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。