論文の概要: Differentiable Rule Induction from Raw Sequence Inputs
- arxiv url: http://arxiv.org/abs/2602.13583v1
- Date: Sat, 14 Feb 2026 03:54:08 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-17 14:17:28.219941
- Title: Differentiable Rule Induction from Raw Sequence Inputs
- Title(参考訳): ルーシーケンス入力からの微分可能なルール誘導
- Authors: Kun Gao, Katsumi Inoue, Yongzhi Cao, Hanpin Wang, Feng Yang,
- Abstract要約: ルール学習ベースのモデルは、高度に解釈可能なシナリオで広く利用されている。
微分可能なILPモデルは、ニューラルネットワークを活用して堅牢性とスケーラビリティを向上させることにより、このプロセスを強化する。
ラベルリークのない生データからルール学習が可能な,新たな識別可能なILPモデルを備えた自己教師付き識別可能なクラスタリングモデルを提案する。
- 参考スコア(独自算出の注目度): 19.84904867965846
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Rule learning-based models are widely used in highly interpretable scenarios due to their transparent structures. Inductive logic programming (ILP), a form of machine learning, induces rules from facts while maintaining interpretability. Differentiable ILP models enhance this process by leveraging neural networks to improve robustness and scalability. However, most differentiable ILP methods rely on symbolic datasets, facing challenges when learning directly from raw data. Specifically, they struggle with explicit label leakage: The inability to map continuous inputs to symbolic variables without explicit supervision of input feature labels. In this work, we address this issue by integrating a self-supervised differentiable clustering model with a novel differentiable ILP model, enabling rule learning from raw data without explicit label leakage. The learned rules effectively describe raw data through its features. We demonstrate that our method intuitively and precisely learns generalized rules from time series and image data.
- Abstract(参考訳): ルール学習に基づくモデルは、その透明な構造のため、高度に解釈可能なシナリオで広く利用されている。
インダクティブ論理プログラミング(ILP、Inductive logic programming)は、機械学習の一種で、解釈可能性を維持しながら事実からルールを誘導する。
微分可能なILPモデルは、ニューラルネットワークを活用して堅牢性とスケーラビリティを向上させることにより、このプロセスを強化する。
しかし、ほとんどの差別化可能なILP手法はシンボルデータセットに依存しており、生データから直接学習する際の課題に直面している。
連続的な入力をシンボル変数にマッピングできないことは、入力特徴ラベルを明示的に監督する必要がない。
本研究では,自己教師付き微分可能なクラスタリングモデルと新たな微分可能なILPモデルを統合することで,ラベルの明示的なリークを伴わずに生データからルール学習を可能にする。
学習ルールは、その特徴を通じて生データを効果的に記述する。
本手法は時系列や画像データから直感的かつ正確に一般化されたルールを学習することを示す。
関連論文リスト
- Enabling Regional Explainability by Automatic and Model-agnostic Rule Extraction [44.23023063715179]
ルール抽出は、疾患の診断、疾患の進行予測、薬物発見などの分野に大きく貢献する可能性がある。
既存のメソッドは、全体のパフォーマンスを最大化するために、マイナークラスのルールのパフォーマンスを損なう。
本稿では,特定のサブグループからルールを抽出するモデルに依存しない手法を提案する。
論文 参考訳(メタデータ) (2024-06-25T18:47:50Z) - Learning Interpretable Rules for Scalable Data Representation and
Classification [11.393431987232425]
ルールベースのLearner Representation (RRL)は、データ表現と分類のための解釈可能な非ファジィ規則を学習する。
RRLは容易に調整でき、異なるシナリオの分類精度とモデルの複雑さのトレードオフを得ることができる。
論文 参考訳(メタデータ) (2023-10-22T15:55:58Z) - Variational Self-Supervised Contrastive Learning Using Beta Divergence [0.0]
本稿では,データノイズに対して頑健な自己教師付き学習手法を提案する。
顔理解領域における多ラベルデータセットを用いた線形評価と微調整シナリオを含む厳密な実験により,提案手法の有効性を実証する。
論文 参考訳(メタデータ) (2023-09-05T17:21:38Z) - Disentanglement via Latent Quantization [60.37109712033694]
本研究では,組織化された潜在空間からの符号化と復号化に向けた帰納的バイアスを構築する。
本稿では,基本データレコーダ (vanilla autoencoder) と潜時再構成 (InfoGAN) 生成モデルの両方に追加することで,このアプローチの広範な適用性を実証する。
論文 参考訳(メタデータ) (2023-05-28T06:30:29Z) - Learning Debiased and Disentangled Representations for Semantic
Segmentation [52.35766945827972]
セマンティックセグメンテーションのためのモデルに依存しない訓練手法を提案する。
各トレーニングイテレーションで特定のクラス情報をランダムに除去することにより、クラス間の機能依存を効果的に削減する。
提案手法で訓練したモデルは,複数のセマンティックセグメンテーションベンチマークにおいて強い結果を示す。
論文 参考訳(メタデータ) (2021-10-31T16:15:09Z) - Distilling Interpretable Models into Human-Readable Code [71.11328360614479]
人間可読性は機械学習モデル解釈可能性にとって重要で望ましい標準である。
従来の方法を用いて解釈可能なモデルを訓練し,それを簡潔で可読なコードに抽出する。
本稿では,幅広いユースケースで効率的に,確実に高品質な結果を生成する分別線形曲線フィッティングアルゴリズムについて述べる。
論文 参考訳(メタデータ) (2021-01-21T01:46:36Z) - Overcoming the curse of dimensionality with Laplacian regularization in
semi-supervised learning [80.20302993614594]
ラプラシア正規化の欠点を克服するための統計的解析を提供する。
望ましい振る舞いを示すスペクトルフィルタリング法を多数発表する。
我々は,本手法を大量のデータで利用できるようにするために,現実的な計算ガイドラインを提供する。
論文 参考訳(メタデータ) (2020-09-09T14:28:54Z) - Predicting What You Already Know Helps: Provable Self-Supervised
Learning [60.27658820909876]
自己教師付き表現学習は、ラベル付きデータを必要としない補助的な予測タスク(プリテキストタスクと呼ばれる)を解決する。
本研究では,特定のエミュレーションに基づくプレテキストタスク間の統計的関係を利用して,優れた表現を学習することを保証する機構を示す。
複素基底真理関数クラスにおいても線形層は近似誤差が小さいことを証明した。
論文 参考訳(メタデータ) (2020-08-03T17:56:13Z) - Learning What Makes a Difference from Counterfactual Examples and
Gradient Supervision [57.14468881854616]
ニューラルネットワークの一般化能力を改善するための補助的学習目標を提案する。
我々は、異なるラベルを持つ最小差の例のペア、すなわち反ファクトまたはコントラストの例を使用し、タスクの根底にある因果構造を示す信号を与える。
このテクニックで訓練されたモデルは、配布外テストセットのパフォーマンスを向上させる。
論文 参考訳(メタデータ) (2020-04-20T02:47:49Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。