論文の概要: Machine Learning with Probabilistic Law Discovery: A Concise
Introduction
- arxiv url: http://arxiv.org/abs/2212.11901v1
- Date: Thu, 22 Dec 2022 17:40:13 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-23 14:35:11.462121
- Title: Machine Learning with Probabilistic Law Discovery: A Concise
Introduction
- Title(参考訳): 確率的法則発見による機械学習:簡潔な入門
- Authors: Alexander Demin and Denis Ponomaryov
- Abstract要約: Probabilistic Law Discovery (PLD) は、確率論的ルール学習の変種を実装した論理ベースの機械学習手法である。
PLDはDecision Tree/Random Forestメソッドに近いが、関連するルールの定義方法に大きく異なる。
本稿はPLDの主な原則を概説し、その利点と限界を強調し、いくつかのアプリケーションガイドラインを提供する。
- 参考スコア(独自算出の注目度): 77.34726150561087
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Probabilistic Law Discovery (PLD) is a logic based Machine Learning method,
which implements a variant of probabilistic rule learning. In several aspects,
PLD is close to Decision Tree/Random Forest methods, but it differs
significantly in how relevant rules are defined. The learning procedure of PLD
solves the optimization problem related to the search for rules (called
probabilistic laws), which have a minimal length and relatively high
probability. At inference, ensembles of these rules are used for prediction.
Probabilistic laws are human-readable and PLD based models are transparent and
inherently interpretable. Applications of PLD include
classification/clusterization/regression tasks, as well as time series
analysis/anomaly detection and adaptive (robotic) control. In this paper, we
outline the main principles of PLD, highlight its benefits and limitations and
provide some application guidelines.
- Abstract(参考訳): Probabilistic Law Discovery (PLD) は、確率論的ルール学習の変種を実装する論理ベースの機械学習手法である。
いくつかの面では、pldは決定木/ランダムフォレストメソッドに近いが、関連するルールの定義方法は大きく異なる。
pldの学習手順は、最小の長さと比較的高い確率を持つ規則(確率則と呼ばれる)の探索に関連する最適化問題を解く。
推論では、これらのルールのアンサンブルが予測に使用される。
確率論的法則は可読性があり、pldに基づくモデルは透明で本質的に解釈可能である。
PLDの応用には、分類/クラスタ化/回帰タスク、時系列解析/異常検出および適応(ロボティック)制御が含まれる。
本稿では,PLDの主な原則を概説し,そのメリットと限界を強調し,いくつかのアプリケーションガイドラインを提供する。
関連論文リスト
- Can LLMs Reason with Rules? Logic Scaffolding for Stress-Testing and Improving LLMs [87.34281749422756]
大規模言語モデル(LLM)は、様々な推論タスクにおいて、印象的な人間的なパフォーマンスを実現している。
しかし、その根底にある推論規則の熟達性は、人間の能力に欠ける。
本稿では,推論ルールベースであるULogicを構築するための,推論ルール生成フレームワークを提案する。
論文 参考訳(メタデータ) (2024-02-18T03:38:51Z) - Probabilistic Truly Unordered Rule Sets [4.169915659794567]
真に順序のない規則集合に対するTURSを提案する。
我々はルールセットの確率的特性を利用して、類似した確率的出力を持つ場合のみ規則が重複することを許すという直観を生かしている。
我々は,幅広いルールベースの手法に対してベンチマークを行い,モデルの複雑さを低くし,高い競争力のある予測性能を持つルールセットを学習できることを実証した。
論文 参考訳(メタデータ) (2024-01-18T12:03:19Z) - Phenomenal Yet Puzzling: Testing Inductive Reasoning Capabilities of Language Models with Hypothesis Refinement [92.61557711360652]
言語モデル(LM)は、しばしば帰納的推論に不足する。
我々は,反復的仮説修正を通じて,LMの帰納的推論能力を体系的に研究する。
本研究は, LMの誘導的推論過程と人間とのいくつかの相違点を明らかにし, 誘導的推論タスクにおけるLMの使用の可能性と限界に光を当てる。
論文 参考訳(メタデータ) (2023-10-12T17:51:10Z) - Logical Entity Representation in Knowledge-Graphs for Differentiable
Rule Learning [71.05093203007357]
本稿では,知識グラフ内のエンティティのコンテキスト情報をエンコードするための論理エンティティ・リプレゼンテーション(LERP)を提案する。
LERPは、エンティティの隣接部分グラフ上の確率論的論理関数のベクトルとして設計されている。
我々のモデルは知識グラフ補完において他のルール学習法よりも優れており、最先端のブラックボックス法に匹敵する、あるいは優れている。
論文 参考訳(メタデータ) (2023-05-22T05:59:22Z) - Truly Unordered Probabilistic Rule Sets for Multi-class Classification [0.0]
真に順序のない規則集合に対するTURSを提案する。
まず、真に順序のない規則集合を学習する問題を定式化する。
次に、ルールを慎重に成長させることでルール集合を学習する2相アルゴリズムを開発する。
論文 参考訳(メタデータ) (2022-06-17T14:34:35Z) - Efficient Learning of Interpretable Classification Rules [34.27987659227838]
本稿では,命題論理で表現可能な分類規則に対して,最大満足度(MaxSAT)に基づく解釈可能な学習フレームワークIMLIを提案する。
我々の実験では,IMLIは予測精度,解釈可能性,スケーラビリティの最良のバランスを達成している。
論文 参考訳(メタデータ) (2022-05-14T00:36:38Z) - RuleBert: Teaching Soft Rules to Pre-trained Language Models [21.69870624809201]
そこで我々は, PLM が与えられた仮説の確率で予測を返すべき, 事実とソフトルールを前提とした分類タスクを導入する。
本研究では, PLM がタスクの正確な確率の予測方法を学習できるように改良された損失関数を提案する。
評価結果から,学習時に見つからない論理的ルールであっても,得られた微調整モデルは非常に高い性能が得られることが示された。
論文 参考訳(メタデータ) (2021-09-24T16:19:25Z) - RNNLogic: Learning Logic Rules for Reasoning on Knowledge Graphs [91.71504177786792]
本稿では知識グラフに基づく推論のための論理規則の学習について研究する。
論理規則は、予測に使用されるときに解釈可能な説明を提供するとともに、他のタスクに一般化することができる。
既存の手法は、検索スペースの検索の問題や、スパース報酬による非効率な最適化に悩まされている。
論文 参考訳(メタデータ) (2020-10-08T14:47:02Z) - Certified Reinforcement Learning with Logic Guidance [78.2286146954051]
線形時間論理(LTL)を用いて未知の連続状態/動作マルコフ決定過程(MDP)のゴールを定式化できるモデルフリーなRLアルゴリズムを提案する。
このアルゴリズムは、トレースが仕様を最大確率で満たす制御ポリシーを合成することが保証される。
論文 参考訳(メタデータ) (2019-02-02T20:09:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。