論文の概要: Leveraging Knowlegde Graphs for Interpretable Feature Generation
- arxiv url: http://arxiv.org/abs/2406.00544v1
- Date: Sat, 1 Jun 2024 19:51:29 GMT
- ステータス: 処理完了
- システム内更新日: 2024-06-06 06:25:48.256545
- Title: Leveraging Knowlegde Graphs for Interpretable Feature Generation
- Title(参考訳): 解釈可能な特徴生成のためのノウグレードグラフの活用
- Authors: Mohamed Bouadi, Arta Alavi, Salima Benbernou, Mourad Ouziri,
- Abstract要約: KRAFTは、知識グラフを利用して解釈可能な機能の生成をガイドするAutoFEフレームワークである。
我々のハイブリッドAIアプローチは、一連の変換を通じて生の機能を変換するためのニューラルジェネレータと、特徴の解釈可能性を評価するための知識ベースの推論器を組み合わせています。
生成装置は、生成した特徴の予測精度と解釈可能性を最大化するために、Deep Reinforcement Learning (DRL)を介して訓練される。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: The quality of Machine Learning (ML) models strongly depends on the input data, as such Feature Engineering (FE) is often required in ML. In addition, with the proliferation of ML-powered systems, especially in critical contexts, the need for interpretability and explainability becomes increasingly important. Since manual FE is time-consuming and requires case specific knowledge, we propose KRAFT, an AutoFE framework that leverages a knowledge graph to guide the generation of interpretable features. Our hybrid AI approach combines a neural generator to transform raw features through a series of transformations and a knowledge-based reasoner to evaluate features interpretability using Description Logics (DL). The generator is trained through Deep Reinforcement Learning (DRL) to maximize the prediction accuracy and the interpretability of the generated features. Extensive experiments on real datasets demonstrate that KRAFT significantly improves accuracy while ensuring a high level of interpretability.
- Abstract(参考訳): 機械学習(ML)モデルの品質は入力データに強く依存する。
さらに,MLによるシステムの普及,特に批判的文脈において,解釈可能性や説明可能性の必要性がますます重要になっている。
手動FEは時間がかかり、ケース固有の知識を必要とするため、我々は、知識グラフを活用して解釈可能な特徴の生成をガイドするKRAFTフレームワークを提案する。
我々のハイブリッドAIアプローチは、一連の変換を通じて生の機能を変換するニューラルジェネレータと、Description Logics (DL)を用いて特徴の解釈可能性を評価するナレッジベースの推論器を組み合わせる。
生成装置は、生成した特徴の予測精度と解釈可能性を最大化するために、Deep Reinforcement Learning (DRL)を介して訓練される。
実際のデータセットに対する大規模な実験により、KRAFTは高いレベルの解釈可能性を確保しながら精度を大幅に向上することが示された。
関連論文リスト
- Characterizing out-of-distribution generalization of neural networks: application to the disordered Su-Schrieffer-Heeger model [38.79241114146971]
本稿では、量子位相の分類を訓練したニューラルネットワークの予測において、解釈可能性の手法が信頼を高める方法を示す。
特に, 複雑な分類問題において, 分配外分布の一般化を確実にできることを示す。
この研究は,解釈可能性手法の体系的利用が,科学的問題におけるNNの性能をいかに向上させるかを示す一例である。
論文 参考訳(メタデータ) (2024-06-14T13:24:32Z) - Understanding Encoder-Decoder Structures in Machine Learning Using Information Measures [10.066310107046084]
機械学習(ML)におけるエンコーダデコーダ設計の役割をモデル化し理解するための新しい結果を提案する。
我々は、機械学習における予測構造を表現するために、情報満足度(IS)と相互情報損失(MIL)という2つの主要な情報概念を用いる。
論文 参考訳(メタデータ) (2024-05-30T19:58:01Z) - Prospector Heads: Generalized Feature Attribution for Large Models & Data [82.02696069543454]
本稿では,説明に基づく帰属手法の効率的かつ解釈可能な代替手段であるプロスペクタヘッドを紹介する。
入力データにおけるクラス固有のパターンの解釈と発見を、プロファイラヘッドがいかに改善できるかを実証する。
論文 参考訳(メタデータ) (2024-02-18T23:01:28Z) - Comparing Differentiable Logics for Learning Systems: A Research Preview [0.0]
機械学習(ML)システムの形式的検証に関する研究は、データのみからの学習が、基礎となる背景知識を捉えるのに失敗することが多いことを示唆している。
制約を本質的に満足するMLモデルを作成するための有望なアプローチは、バックグラウンド知識を論理的制約としてエンコードし、いわゆる微分可能な論理を通じて学習プロセスを導くことである。
本研究のプレビューでは、弱教師付き文脈における文献の様々な論理を比較検討し、その結果を提示し、今後の研究に向けたオープンな問題を強調する。
論文 参考訳(メタデータ) (2023-11-16T11:33:08Z) - IB-UQ: Information bottleneck based uncertainty quantification for
neural function regression and neural operator learning [11.5992081385106]
本稿では,科学的機械学習タスクのための情報ボトルネック(IB-UQ)による不確実性定量化のための新しいフレームワークを提案する。
我々は,入力データの信頼度に応じて,入力を潜在表現に符号化する信頼認識エンコーダによってボトルネックを埋め込む。
また,外挿不確かさの質を高めるために,データ拡張に基づく情報ボトルネック目標を提案する。
論文 参考訳(メタデータ) (2023-02-07T05:56:42Z) - Audacity of huge: overcoming challenges of data scarcity and data
quality for machine learning in computational materials discovery [1.0036312061637764]
機械学習(ML)に加速された発見は、予測構造とプロパティの関係を明らかにするために大量の高忠実度データを必要とする。
材料発見に関心を持つ多くの特性において、データ生成の挑戦的な性質と高いコストは、人口が少なく、疑わしい品質を持つデータランドスケープを生み出している。
手作業によるキュレーションがなければ、より洗練された自然言語処理と自動画像解析により、文献から構造-プロパティ関係を学習できるようになる。
論文 参考訳(メタデータ) (2021-11-02T21:43:58Z) - Generative Counterfactuals for Neural Networks via Attribute-Informed
Perturbation [51.29486247405601]
AIP(Attribute-Informed Perturbation)の提案により,生データインスタンスの反事実を生成するフレームワークを設計する。
異なる属性を条件とした生成モデルを利用することで、所望のラベルとの反事実を効果的かつ効率的に得ることができる。
実世界のテキストや画像に対する実験結果から, 設計したフレームワークの有効性, サンプル品質, および効率が示された。
論文 参考訳(メタデータ) (2021-01-18T08:37:13Z) - Learning summary features of time series for likelihood free inference [93.08098361687722]
時系列データから要約機能を自動的に学習するためのデータ駆動型戦略を提案する。
以上の結果から,データから要約的特徴を学習することで,手作りの値に基づいてLFI手法よりも優れる可能性が示唆された。
論文 参考訳(メタデータ) (2020-12-04T19:21:37Z) - Transfer Learning without Knowing: Reprogramming Black-box Machine
Learning Models with Scarce Data and Limited Resources [78.72922528736011]
そこで我々は,ブラックボックス・アタベラル・リプログラミング (BAR) という新しい手法を提案する。
ゼロオーダー最適化とマルチラベルマッピング技術を用いて、BARは入力出力応答のみに基づいてブラックボックスMLモデルをプログラムする。
BARは最先端の手法より優れ、バニラ対逆プログラミング法に匹敵する性能を得る。
論文 参考訳(メタデータ) (2020-07-17T01:52:34Z) - Learning to Learn Kernels with Variational Random Features [118.09565227041844]
メタラーニングフレームワークにランダムなフーリエ機能を持つカーネルを導入し、その強力な数ショット学習能力を活用する。
変分推論問題としてメタVRFの最適化を定式化する。
MetaVRFは、既存のメタ学習方法に比べて、はるかに優れた、少なくとも競争力のあるパフォーマンスを提供します。
論文 参考訳(メタデータ) (2020-06-11T18:05:29Z) - Multilinear Compressive Learning with Prior Knowledge [106.12874293597754]
マルチリニア圧縮学習(MCL)フレームワークは、マルチリニア圧縮センシングと機械学習をエンドツーエンドシステムに統合する。
MCLの背後にある主要なアイデアは、下流学習タスクの信号から重要な特徴を捉えることのできるテンソル部分空間の存在を仮定することである。
本稿では、上記の要件、すなわち、関心の信号が分離可能なテンソル部分空間をどうやって見つけるかという、2つの要件に対処する新しい解決策を提案する。
論文 参考訳(メタデータ) (2020-02-17T19:06:05Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。