論文の概要: On the Learnability of Possibilistic Theories
- arxiv url: http://arxiv.org/abs/2005.03157v1
- Date: Wed, 6 May 2020 22:08:32 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-06 06:26:53.570512
- Title: On the Learnability of Possibilistic Theories
- Title(参考訳): ポシビリズム理論の学習可能性について
- Authors: Cosimo Persia and Ana Ozaki
- Abstract要約: 本研究では,Angluinの正確な学習モデルに基づき,確率論的理論の学習可能性について検討する。
正確なモデルにおける時間学習性は、メンバシップクエリで拡張された古典的おそらくほぼ正しいモデルに転送可能であるため、本モデルではそのような結果も確立する。
- 参考スコア(独自算出の注目度): 19.935097664711797
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We investigate learnability of possibilistic theories from entailments in
light of Angluin's exact learning model. We consider cases in which only
membership, only equivalence, and both kinds of queries can be posed by the
learner. We then show that, for a large class of problems, polynomial time
learnability results for classical logic can be transferred to the respective
possibilistic extension. In particular, it follows from our results that the
possibilistic extension of propositional Horn theories is exactly learnable in
polynomial time. As polynomial time learnability in the exact model is
transferable to the classical probably approximately correct model extended
with membership queries, our work also establishes such results in this model.
- Abstract(参考訳): 本研究では,Angluinの正確な学習モデルに基づき,確率論的理論の学習可能性について検討する。
我々は,メンバシップのみ,同値のみを想定し,いずれの種類の問合せも学習者に提示できる場合を考える。
そして、多くの問題に対して、古典論理の多項式時間学習性の結果が各確率拡張に転送可能であることを示す。
特に、我々の結果から、命題ホーン理論の確率的拡張は多項式時間で正確に学習可能であることが従う。
正確なモデルにおける多項式時間学習性は、メンバシップクエリで拡張された古典的おそらくほぼ正しいモデルに転送可能であるので、このモデルでも同様の結果が確立される。
関連論文リスト
- Simple and Interpretable Probabilistic Classifiers for Knowledge Graphs [0.0]
本稿では,単純な信念ネットワークの学習に基づく帰納的アプローチについて述べる。
このようなモデルを(確率的な)公理(あるいは規則)に変換する方法を示す。
論文 参考訳(メタデータ) (2024-07-09T17:05:52Z) - Learning Discrete Concepts in Latent Hierarchical Models [73.01229236386148]
自然の高次元データから学習する概念は、ヒューマンアライメントと解釈可能な機械学習モデルの構築の可能性を秘めている。
我々は概念を階層的因果モデルを通して関連付けられた離散潜在因果変数として定式化する。
我々は、理論的な主張を合成データ実験で裏付ける。
論文 参考訳(メタデータ) (2024-06-01T18:01:03Z) - Credal Learning Theory [4.64390130376307]
我々は,データ生成分布の変動をモデル化するために,凸集合の確率を用いて,不規則な学習理論の基礎を定めている。
境界は有限仮説空間や古典的な結果を直接一般化する無限モデル空間の場合に導かれる。
論文 参考訳(メタデータ) (2024-02-01T19:25:58Z) - Arrows of Time for Large Language Models [3.5678162800263307]
自己回帰大言語モデル(LLM)による確率的モデリングを時間方向の角度から検討する。
十分に大きなモデルでは、自然言語を学習する能力において、次のトークンを予測しようとする場合と、前のトークンを予測しようとする場合との平均ログパープレキシティの違いという、タイム非対称性が経験的に見つかる。
論文 参考訳(メタデータ) (2024-01-30T23:46:35Z) - Invariant Causal Set Covering Machines [64.86459157191346]
決定木のようなルールベースのモデルは、解釈可能な性質のために実践者にアピールする。
しかし、そのようなモデルを生成する学習アルゴリズムは、しばしば刺激的な関連に弱いため、因果関係の洞察を抽出することが保証されていない。
Invariant Causal Set Covering Machines は、古典的集合被覆マシンアルゴリズムの拡張であり、二値ルールの結合/分離を可能とし、スプリアス関係を確実に回避する。
論文 参考訳(メタデータ) (2023-06-07T20:52:01Z) - Benchmarking Compositionality with Formal Languages [64.09083307778951]
我々は,NLPにおける大規模ニューラルモデルが,データから学習しながら,原始概念をより大規模な新しい組み合わせに組み込むことができるかどうかを検討する。
多くのトランスデューサをランダムにサンプリングすることにより、ニューラルネットワークによる合成関係の学習性に寄与する特性を探索する。
モデルは完全に関係を学習するか全く学習しないかが分かる。鍵となるのはトランジッションカバレッジであり、トランジッション毎に400の例でソフトな学習可能性制限を設定する。
論文 参考訳(メタデータ) (2022-08-17T10:03:18Z) - Realizable Learning is All You Need [21.34668631009594]
実現可能かつ不可知的な学習可能性の同値性は、学習理論における基本的な現象である。
実現可能かつ不可知な学習可能性の同値性を説明する最初のモデルに依存しないフレームワークを提示する。
論文 参考訳(メタデータ) (2021-11-08T19:00:00Z) - Model-agnostic multi-objective approach for the evolutionary discovery
of mathematical models [55.41644538483948]
現代のデータ科学では、どの部分がより良い結果を得るために置き換えられるかというモデルの性質を理解することがより興味深い。
合成データ駆動型モデル学習において,多目的進化最適化を用いてアルゴリズムの所望特性を求める。
論文 参考訳(メタデータ) (2021-07-07T11:17:09Z) - Do-calculus enables causal reasoning with latent variable models [2.294014185517203]
潜在変数モデル(LVM)は、トレーニング中に変数の一部が隠蔽される確率モデルである。
因果推論は,確率的モデリングコミュニティで長年確立されてきた幅広いlvmのクラスを拡張できることを示す。
論文 参考訳(メタデータ) (2021-02-12T17:12:53Z) - Unification of HDP and LDA Models for Optimal Topic Clustering of
Subject Specific Question Banks [55.41644538483948]
オンラインコースの人気が高まると、学者向けのコース関連クエリの数が増加することになる。
個々の質問に答えるのに費やす時間を短縮するために、それらをクラスタリングするのは理想的な選択です。
階層ディリクレプロセスを用いて、LDAモデルの実行に対して最適なトピック番号を入力します。
論文 参考訳(メタデータ) (2020-10-04T18:21:20Z) - Pairwise Supervision Can Provably Elicit a Decision Boundary [84.58020117487898]
類似性学習は、パターンのペア間の関係を予測することによって有用な表現を引き出す問題である。
類似性学習は、決定境界を直接引き出すことによって二項分類を解くことができることを示す。
論文 参考訳(メタデータ) (2020-06-11T05:35:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。