論文の概要: A rule-general abductive learning by rough sets
- arxiv url: http://arxiv.org/abs/2305.19718v2
- Date: Mon, 19 Jun 2023 08:31:18 GMT
- ステータス: 翻訳完了
- システム内更新日: 2023-06-22 01:30:47.005539
- Title: A rule-general abductive learning by rough sets
- Title(参考訳): 粗い集合による規則一般帰納学習
- Authors: Xu-chang Guo, Hou-biao Li
- Abstract要約: 実世界のタスクでは、通常大量のラベルなしデータとラベル付きデータがある。
専門家は論理ルールを使ってラベルのないデータをラベル付けすることができるが、この操作はコストがかかる。
粗集合(RS-ABL)による規則一般帰納学習を提案する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In real-world tasks, there is usually a large amount of unlabeled data and
labeled data. The task of combining the two to learn is known as
semi-supervised learning. Experts can use logical rules to label unlabeled
data, but this operation is costly. The combination of perception and reasoning
has a good effect in processing such semi-supervised tasks with domain
knowledge. However, acquiring domain knowledge and the correction, reduction
and generation of rules remain complex problems to be solved. Rough set theory
is an important method for solving knowledge processing in information systems.
In this paper, we propose a rule general abductive learning by rough set
(RS-ABL). By transforming the target concept and sub-concepts of rules into
information tables, rough set theory is used to solve the acquisition of domain
knowledge and the correction, reduction and generation of rules at a lower
cost. This framework can also generate more extensive negative rules to enhance
the breadth of the knowledge base. Compared with the traditional
semi-supervised learning method, RS-ABL has higher accuracy in dealing with
semi-supervised tasks.
- Abstract(参考訳): 実世界のタスクでは、通常大量のラベルなしデータとラベル付きデータがある。
この2つの学習を組み合わせることは半教師付き学習と呼ばれる。
専門家は論理ルールを使ってラベルのないデータをラベル付けすることができるが、この操作はコストがかかる。
知覚と推論の組み合わせは、そのような半教師付きタスクとドメイン知識の処理に良い影響を与える。
しかし、ドメイン知識の取得と修正、削減、ルールの生成は、解決すべき複雑な問題である。
ラフセット理論は情報システムにおける知識処理を解く重要な方法である。
本稿では,粗集合(RS-ABL)による規則一般帰納学習を提案する。
ルールの目標概念とサブ概念を情報テーブルに変換することにより、ドメイン知識の獲得とルールの修正・縮小・生成を低コストで解決するための粗いセット理論が用いられる。
このフレームワークは、知識ベースの範囲を広げるために、より広範な負のルールを生成することもできる。
従来の半教師付き学習法と比較して、RS-ABLは半教師付きタスクの処理精度が高い。
関連論文リスト
- Representation Interventions Enable Lifelong Unstructured Knowledge Control [54.86207134539453]
大規模言語モデル(LLM)は、しばしば誤った、または時代遅れのコンテンツを生成します。その知識を効率的に正確に更新し、コストのかかる再トレーニングなしにするというのは、大きな課題です。
本稿では,モデル表現空間内の介入として知識制御を扱う,堅牢でスケーラブルな手法であるRILKEを紹介する。
トレーニング中、RILKEはパラフレーズロバストと編集局所化モジュールを学び、低次元のサブスペースへの更新を制限し、クロスディジット干渉を最小限に抑える。
推論において、クエリ適応ルータは、モデル生成をガイドする適切なモジュールを選択する。
論文 参考訳(メタデータ) (2025-11-25T22:15:00Z) - Knowledge-Augmented Question Error Correction for Chinese Question Answer System with QuestionRAG [9.494395215204694]
大規模言語モデル(LLM)は、しばしばユーザーの意図(誤解釈)を解釈したり、必要以上に元の質問の構造(過度な補正)を変更することに失敗する。
これらの問題に対処するフレームワークであるQARAGを提案する。
誤解釈に対処するため、入力を外部知識(検索結果、関連エンティティなど)で強化する。
過度な補正を防ぐためには、強化学習(RL)を使用して、単に言い換えるのではなく、モデルの目的を正確な修正と整合させる。
論文 参考訳(メタデータ) (2025-11-05T12:24:20Z) - Learning to Solve Domain-Specific Calculation Problems with Knowledge-Intensive Programs Generator [33.680619900836376]
本稿では,知識集中型プログラム生成器を用いて,ドメイン固有の計算問題を解くパイプラインを提案する。
ドメイン固有の文書に従って知識集約型プログラムを生成する。
また、コードジェネレータは、新しい知識をトレーニングすることなく、他のドメインにも適用可能であることもわかりました。
論文 参考訳(メタデータ) (2024-12-12T13:42:58Z) - Mind the Interference: Retaining Pre-trained Knowledge in Parameter Efficient Continual Learning of Vision-Language Models [79.28821338925947]
ドメインクラスのインクリメンタル学習は現実的だが、継続的な学習シナリオである。
これらの多様なタスクに対処するために、事前訓練されたビジョンランゲージモデル(VLM)を導入し、その強力な一般化性を実現する。
事前訓練されたVLMにエンコードされた知識は、新しいタスクに適応する際に妨げられ、固有のゼロショット能力を損なう。
既存の手法では、膨大なオーバーヘッドを必要とする余分なデータセットに知識蒸留でVLMをチューニングすることで、この問題に対処している。
我々は、事前学習した知識を保持できるDIKI(Distributed-Aware Interference-free Knowledge Integration)フレームワークを提案する。
論文 参考訳(メタデータ) (2024-07-07T12:19:37Z) - Towards Learning Abductive Reasoning using VSA Distributed Representations [56.31867341825068]
本稿では,文脈認識モデルを用いた帰納的ルール学習手法を提案する。
ARLCは、誘引的推論のための、新しくより広く適用可能な訓練目標を特徴としている。
プログラムされた知識の上に実例から漸進的に学習することで,ARLCのポストプログラミングトレーニングに対する堅牢性を示す。
論文 参考訳(メタデータ) (2024-06-27T12:05:55Z) - Zero-Shot Generalization during Instruction Tuning: Insights from Similarity and Granularity [84.12126298229866]
命令チューニング中のゼロショット一般化は非常に早い時期に行われることを示す。
また、「タスク」の制約を伴わずに、命令チューニング中に非常によく似た、きめ細かなトレーニングデータに遭遇することで、より一般化できることを示す。
インストラクションチューニング中のゼロショット一般化は、インスタンスレベルでのトレーニングとテストデータ間の類似性に基づく一般化の形式であることを示す。
論文 参考訳(メタデータ) (2024-06-17T16:40:21Z) - CorDA: Context-Oriented Decomposition Adaptation of Large Language Models for Task-Aware Parameter-Efficient Fine-tuning [101.81127587760831]
現在の微調整手法は、学習すべき下流タスクのコンテキストや、維持すべき重要な知識のコンテキストに広く適用できるアダプタを構築している。
学習可能なタスク対応アダプタを構築するコンテキスト指向の分解適応手法であるCorDAを提案する。
本手法は,知識保存型適応と指導レビュー型適応の2つの選択肢を実現する。
論文 参考訳(メタデータ) (2024-06-07T19:10:35Z) - Abstracting Concept-Changing Rules for Solving Raven's Progressive
Matrix Problems [54.26307134687171]
Raven's Progressive Matrix (RPM) は、候補者の中から選択することで、機械知能においてそのような能力を実現する古典的なテストである。
近年の研究では、RPMの解法はルールの深い理解を促進することが示唆されている。
本稿では、解釈可能な概念を学習し、潜在空間における概念変更ルールを解析することにより、概念変更ルールABstraction(CRAB)の潜時変数モデルを提案する。
論文 参考訳(メタデータ) (2023-07-15T07:16:38Z) - Learning the Finer Things: Bayesian Structure Learning at the
Instantiation Level [0.0]
成功した機械学習手法は記憶と一般化の間のトレードオフを必要とする。
本稿では,探索的領域で学習し,一般化し,説明できる新しい確率的グラフィカルモデル構造学習手法を提案する。
論文 参考訳(メタデータ) (2023-03-08T02:31:49Z) - Knowledge Reasoning via Jointly Modeling Knowledge Graphs and Soft Rules [17.301284626706856]
知識グラフ補完法(KGC)は、ルールベースの推論と埋め込みベースの推論の2つの主要なカテゴリに分類される。
本稿では,ルールを注入し,反復的に表現を学習し,ルールと埋め込みを最大限に活用する手法を提案する。
論文 参考訳(メタデータ) (2023-01-07T05:24:29Z) - Prior Knowledge Guided Unsupervised Domain Adaptation [82.9977759320565]
本稿では,対象とするクラス分布に関する事前知識を利用できる知識誘導型非教師付きドメイン適応(KUDA)設定を提案する。
特に,対象領域におけるクラス分布に関する2種類の事前知識について考察する。
このような事前知識を用いて生成した擬似ラベルを精査する修正モジュールを提案する。
論文 参考訳(メタデータ) (2022-07-18T18:41:36Z) - Towards Accurate Knowledge Transfer via Target-awareness Representation
Disentanglement [56.40587594647692]
本稿では,TRED(Target-Awareness Representation Disentanglement)の概念を取り入れた新しいトランスファー学習アルゴリズムを提案する。
TREDは、対象のタスクに関する関連する知識を元のソースモデルから切り離し、ターゲットモデルを微調整する際、レギュレータとして使用する。
各種実世界のデータセットを用いた実験により,本手法は標準微調整を平均2%以上安定的に改善することが示された。
論文 参考訳(メタデータ) (2020-10-16T17:45:08Z) - Incorporating Relational Background Knowledge into Reinforcement
Learning via Differentiable Inductive Logic Programming [8.122270502556374]
微分帰納的論理プログラミング(ILP)に基づく新しい深層強化学習(RRL)を提案する。
本稿では,BoxWorld,GridWorldなどの環境と,Solt-of-CLEVRデータセットのリレーショナル推論を用いた新しいRRLフレームワークの有効性を示す。
論文 参考訳(メタデータ) (2020-03-23T16:56:11Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。