論文の概要: Multitask Kernel-based Learning with Logic Constraints
- arxiv url: http://arxiv.org/abs/2402.10617v1
- Date: Fri, 16 Feb 2024 12:11:34 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-19 16:28:02.752386
- Title: Multitask Kernel-based Learning with Logic Constraints
- Title(参考訳): 論理制約付きマルチタスクカーネルベース学習
- Authors: Michelangelo Diligenti, Marco Gori, Marco Maggini, Leonardo Rigutini
- Abstract要約: 本稿では,タスク関数の集合間の論理制約をカーネルマシンに組み込む枠組みを提案する。
特徴空間上の複数の一意述語をカーネルマシンで学習するマルチタスク学習方式を検討する。
一般的なアプローチでは、論理節を連続的な実装に変換し、カーネルベースの述語によって計算された出力を処理する。
- 参考スコア(独自算出の注目度): 13.70920563542248
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This paper presents a general framework to integrate prior knowledge in the
form of logic constraints among a set of task functions into kernel machines.
The logic propositions provide a partial representation of the environment, in
which the learner operates, that is exploited by the learning algorithm
together with the information available in the supervised examples. In
particular, we consider a multi-task learning scheme, where multiple unary
predicates on the feature space are to be learned by kernel machines and a
higher level abstract representation consists of logic clauses on these
predicates, known to hold for any input. A general approach is presented to
convert the logic clauses into a continuous implementation, that processes the
outputs computed by the kernel-based predicates. The learning task is
formulated as a primal optimization problem of a loss function that combines a
term measuring the fitting of the supervised examples, a regularization term,
and a penalty term that enforces the constraints on both supervised and
unsupervised examples. The proposed semi-supervised learning framework is
particularly suited for learning in high dimensionality feature spaces, where
the supervised training examples tend to be sparse and generalization
difficult. Unlike for standard kernel machines, the cost function to optimize
is not generally guaranteed to be convex. However, the experimental results
show that it is still possible to find good solutions using a two stage
learning schema, in which first the supervised examples are learned until
convergence and then the logic constraints are forced. Some promising
experimental results on artificial multi-task learning tasks are reported,
showing how the classification accuracy can be effectively improved by
exploiting the a priori rules and the unsupervised examples.
- Abstract(参考訳): 本稿では,タスク関数の集合間の論理的制約をカーネルマシンに組み込むための,事前知識の統合フレームワークを提案する。
論理命題は、学習者が操作する環境の部分表現を提供し、教師付き例で利用可能な情報とともに学習アルゴリズムによって活用される。
特に、機能空間上の複数の単項述語をカーネルマシンで学習し、高レベル抽象表現をこれらの述語上の論理節から構成し、任意の入力に対して保持することが知られているマルチタスク学習スキームを考える。
論理節をカーネルベースの述語で計算された出力を処理する連続的な実装に変換する一般的なアプローチが提案されている。
学習課題は、教師付き例の適合度を測定する項、正規化項、および教師なし例と教師なし例の両方の制約を強制するペナルティ項を組み合わせた損失関数の一次最適化問題として定式化される。
提案する半教師あり学習フレームワークは,教師あり訓練例が希薄で一般化が難しい高次元特徴空間における学習に特に適している。
標準的なカーネルマシンとは異なり、最適化するコスト関数は一般に凸であることが保証されていない。
しかし,実験結果から,教師付き例を収束するまで学習し,その後に論理制約を強制する2段階学習スキーマを用いることで,優れた解を求めることが可能であることが判明した。
人工マルチタスク学習における有望な実験結果が報告され、事前ルールと教師なし例を利用して分類精度を効果的に改善できることを示す。
関連論文リスト
- STAND: Data-Efficient and Self-Aware Precondition Induction for Interactive Task Learning [0.0]
STANDはデータ効率と計算効率のよい機械学習手法である。
XGBoostのような一般的なアプローチよりも、分類精度が高い。
これはインスタンス確実性と呼ばれる尺度を生成し、ホールドアウトセットのパフォーマンスの増加を予測する。
論文 参考訳(メタデータ) (2024-09-11T22:49:38Z) - Multitask Kernel-based Learning with First-Order Logic Constraints [13.70920563542248]
オブジェクトの集合上で定義された複数の述語を例から共用的に学習するマルチタスク学習方式を考える。
FOL節をカーネルベースの述語によって計算された出力に対処できる連続的な実装に変換するための一般的なアプローチが提示される。
論文 参考訳(メタデータ) (2023-11-06T18:44:55Z) - Consciousness-Inspired Spatio-Temporal Abstractions for Better Generalization in Reinforcement Learning [83.41487567765871]
Skipperはモデルベースの強化学習フレームワークである。
これは、与えられたタスクをより小さく、より管理しやすいサブタスクに自動的に一般化する。
環境の関連部分には、スパースな意思決定と集中した抽象化を可能にする。
論文 参考訳(メタデータ) (2023-09-30T02:25:18Z) - Interpretable Anomaly Detection via Discrete Optimization [1.7150329136228712]
本稿では,シーケンシャルデータから本質的に解釈可能な異常検出を学習するためのフレームワークを提案する。
この問題は計算的に困難であることを示し,制約最適化に基づく2つの学習アルゴリズムを開発した。
プロトタイプ実装を用いて,提案手法は精度とF1スコアの点で有望な結果を示す。
論文 参考訳(メタデータ) (2023-03-24T16:19:15Z) - Stabilizing Q-learning with Linear Architectures for Provably Efficient
Learning [53.17258888552998]
本研究では,線形関数近似を用いた基本的な$Q$-learningプロトコルの探索変種を提案する。
このアルゴリズムの性能は,新しい近似誤差というより寛容な概念の下で,非常に優雅に低下することを示す。
論文 参考訳(メタデータ) (2022-06-01T23:26:51Z) - Exploring Viable Algorithmic Options for Learning from Demonstration
(LfD): A Parameterized Complexity Approach [0.0]
本稿では,パラメータ化複雑性解析を用いて,アルゴリズムの選択肢を体系的に探索する方法を示す。
環境、実演、ポリシーに対する多くの(しばしば同時に)制限に対して、我々の問題は、一般的にも、あるいは相対的に、効率的に解決できないことを示す。
論文 参考訳(メタデータ) (2022-05-10T15:54:06Z) - Fine-grained Generalization Analysis of Vector-valued Learning [28.722350261462463]
正規化ベクトル値学習アルゴリズムの一般化解析を,出力次元に軽度依存する境界とサンプルサイズに高速速度を提示することで開始する。
最適化と学習の相互作用を理解するために、結果を使用して、ベクトル値関数による降下の最初の境界を導出します。
副生成物として、一般凸函数の項で定義される損失関数クラスに対してラデマッハ複雑性を導出する。
論文 参考訳(メタデータ) (2021-04-29T07:57:34Z) - Multi-Agent Reinforcement Learning with Temporal Logic Specifications [65.79056365594654]
本研究では,時間論理仕様を満たすための学習課題を,未知の環境下でエージェントのグループで検討する。
我々は、時間論理仕様のための最初のマルチエージェント強化学習手法を開発した。
主アルゴリズムの正確性と収束性を保証する。
論文 参考訳(メタデータ) (2021-02-01T01:13:03Z) - An Integer Linear Programming Framework for Mining Constraints from Data [81.60135973848125]
データから制約をマイニングするための一般的なフレームワークを提案する。
特に、構造化された出力予測の推論を整数線形プログラミング(ILP)問題とみなす。
提案手法は,9×9のスドクパズルの解法を学習し,基礎となるルールを提供することなく,例からツリー問題を最小限に分散させることが可能であることを示す。
論文 参考訳(メタデータ) (2020-06-18T20:09:53Z) - An Information Bottleneck Approach for Controlling Conciseness in
Rationale Extraction [84.49035467829819]
我々は,情報ボトルネック(IB)の目的を最適化することで,このトレードオフをよりよく管理できることを示す。
我々の完全教師なしのアプローチは、文上のスパース二項マスクを予測する説明器と、抽出された合理性のみを考慮したエンドタスク予測器を共同で学習する。
論文 参考訳(メタデータ) (2020-05-01T23:26:41Z) - Learning What Makes a Difference from Counterfactual Examples and
Gradient Supervision [57.14468881854616]
ニューラルネットワークの一般化能力を改善するための補助的学習目標を提案する。
我々は、異なるラベルを持つ最小差の例のペア、すなわち反ファクトまたはコントラストの例を使用し、タスクの根底にある因果構造を示す信号を与える。
このテクニックで訓練されたモデルは、配布外テストセットのパフォーマンスを向上させる。
論文 参考訳(メタデータ) (2020-04-20T02:47:49Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。