論文の概要: A rule-general abductive learning by rough sets
- arxiv url: http://arxiv.org/abs/2305.19718v2
- Date: Mon, 19 Jun 2023 08:31:18 GMT
- ステータス: 処理完了
- システム内更新日: 2023-06-22 01:30:47.005539
- Title: A rule-general abductive learning by rough sets
- Title(参考訳): 粗い集合による規則一般帰納学習
- Authors: Xu-chang Guo, Hou-biao Li
- Abstract要約: 実世界のタスクでは、通常大量のラベルなしデータとラベル付きデータがある。
専門家は論理ルールを使ってラベルのないデータをラベル付けすることができるが、この操作はコストがかかる。
粗集合(RS-ABL)による規則一般帰納学習を提案する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In real-world tasks, there is usually a large amount of unlabeled data and
labeled data. The task of combining the two to learn is known as
semi-supervised learning. Experts can use logical rules to label unlabeled
data, but this operation is costly. The combination of perception and reasoning
has a good effect in processing such semi-supervised tasks with domain
knowledge. However, acquiring domain knowledge and the correction, reduction
and generation of rules remain complex problems to be solved. Rough set theory
is an important method for solving knowledge processing in information systems.
In this paper, we propose a rule general abductive learning by rough set
(RS-ABL). By transforming the target concept and sub-concepts of rules into
information tables, rough set theory is used to solve the acquisition of domain
knowledge and the correction, reduction and generation of rules at a lower
cost. This framework can also generate more extensive negative rules to enhance
the breadth of the knowledge base. Compared with the traditional
semi-supervised learning method, RS-ABL has higher accuracy in dealing with
semi-supervised tasks.
- Abstract(参考訳): 実世界のタスクでは、通常大量のラベルなしデータとラベル付きデータがある。
この2つの学習を組み合わせることは半教師付き学習と呼ばれる。
専門家は論理ルールを使ってラベルのないデータをラベル付けすることができるが、この操作はコストがかかる。
知覚と推論の組み合わせは、そのような半教師付きタスクとドメイン知識の処理に良い影響を与える。
しかし、ドメイン知識の取得と修正、削減、ルールの生成は、解決すべき複雑な問題である。
ラフセット理論は情報システムにおける知識処理を解く重要な方法である。
本稿では,粗集合(RS-ABL)による規則一般帰納学習を提案する。
ルールの目標概念とサブ概念を情報テーブルに変換することにより、ドメイン知識の獲得とルールの修正・縮小・生成を低コストで解決するための粗いセット理論が用いられる。
このフレームワークは、知識ベースの範囲を広げるために、より広範な負のルールを生成することもできる。
従来の半教師付き学習法と比較して、RS-ABLは半教師付きタスクの処理精度が高い。
関連論文リスト
- Mind the Interference: Retaining Pre-trained Knowledge in Parameter Efficient Continual Learning of Vision-Language Models [79.28821338925947]
ドメインクラスのインクリメンタル学習は現実的だが、継続的な学習シナリオである。
これらの多様なタスクに対処するために、事前訓練されたビジョンランゲージモデル(VLM)を導入し、その強力な一般化性を実現する。
事前訓練されたVLMにエンコードされた知識は、新しいタスクに適応する際に妨げられ、固有のゼロショット能力を損なう。
既存の手法では、膨大なオーバーヘッドを必要とする余分なデータセットに知識蒸留でVLMをチューニングすることで、この問題に対処している。
我々は、事前学習した知識を保持できるDIKI(Distributed-Aware Interference-free Knowledge Integration)フレームワークを提案する。
論文 参考訳(メタデータ) (2024-07-07T12:19:37Z) - Towards Learning Abductive Reasoning using VSA Distributed Representations [56.31867341825068]
本稿では,文脈認識モデルを用いた帰納的ルール学習手法を提案する。
ARLCは、誘引的推論のための、新しくより広く適用可能な訓練目標を特徴としている。
プログラムされた知識の上に実例から漸進的に学習することで,ARLCのポストプログラミングトレーニングに対する堅牢性を示す。
論文 参考訳(メタデータ) (2024-06-27T12:05:55Z) - Zero-Shot Generalization during Instruction Tuning: Insights from Similarity and Granularity [84.12126298229866]
命令チューニング中のゼロショット一般化は非常に早い時期に行われることを示す。
また、「タスク」の制約を伴わずに、命令チューニング中に非常によく似た、きめ細かなトレーニングデータに遭遇することで、より一般化できることを示す。
インストラクションチューニング中のゼロショット一般化は、インスタンスレベルでのトレーニングとテストデータ間の類似性に基づく一般化の形式であることを示す。
論文 参考訳(メタデータ) (2024-06-17T16:40:21Z) - Abstracting Concept-Changing Rules for Solving Raven's Progressive
Matrix Problems [54.26307134687171]
Raven's Progressive Matrix (RPM) は、候補者の中から選択することで、機械知能においてそのような能力を実現する古典的なテストである。
近年の研究では、RPMの解法はルールの深い理解を促進することが示唆されている。
本稿では、解釈可能な概念を学習し、潜在空間における概念変更ルールを解析することにより、概念変更ルールABstraction(CRAB)の潜時変数モデルを提案する。
論文 参考訳(メタデータ) (2023-07-15T07:16:38Z) - Learning the Finer Things: Bayesian Structure Learning at the
Instantiation Level [0.0]
成功した機械学習手法は記憶と一般化の間のトレードオフを必要とする。
本稿では,探索的領域で学習し,一般化し,説明できる新しい確率的グラフィカルモデル構造学習手法を提案する。
論文 参考訳(メタデータ) (2023-03-08T02:31:49Z) - Knowledge Reasoning via Jointly Modeling Knowledge Graphs and Soft Rules [17.301284626706856]
知識グラフ補完法(KGC)は、ルールベースの推論と埋め込みベースの推論の2つの主要なカテゴリに分類される。
本稿では,ルールを注入し,反復的に表現を学習し,ルールと埋め込みを最大限に活用する手法を提案する。
論文 参考訳(メタデータ) (2023-01-07T05:24:29Z) - Prior Knowledge Guided Unsupervised Domain Adaptation [82.9977759320565]
本稿では,対象とするクラス分布に関する事前知識を利用できる知識誘導型非教師付きドメイン適応(KUDA)設定を提案する。
特に,対象領域におけるクラス分布に関する2種類の事前知識について考察する。
このような事前知識を用いて生成した擬似ラベルを精査する修正モジュールを提案する。
論文 参考訳(メタデータ) (2022-07-18T18:41:36Z) - Towards Accurate Knowledge Transfer via Target-awareness Representation
Disentanglement [56.40587594647692]
本稿では,TRED(Target-Awareness Representation Disentanglement)の概念を取り入れた新しいトランスファー学習アルゴリズムを提案する。
TREDは、対象のタスクに関する関連する知識を元のソースモデルから切り離し、ターゲットモデルを微調整する際、レギュレータとして使用する。
各種実世界のデータセットを用いた実験により,本手法は標準微調整を平均2%以上安定的に改善することが示された。
論文 参考訳(メタデータ) (2020-10-16T17:45:08Z) - Incorporating Relational Background Knowledge into Reinforcement
Learning via Differentiable Inductive Logic Programming [8.122270502556374]
微分帰納的論理プログラミング(ILP)に基づく新しい深層強化学習(RRL)を提案する。
本稿では,BoxWorld,GridWorldなどの環境と,Solt-of-CLEVRデータセットのリレーショナル推論を用いた新しいRRLフレームワークの有効性を示す。
論文 参考訳(メタデータ) (2020-03-23T16:56:11Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。