論文の概要: Explaining Genetic Programming Trees using Large Language Models
- arxiv url: http://arxiv.org/abs/2403.03397v1
- Date: Wed, 6 Mar 2024 01:38:42 GMT
- ステータス: 処理完了
- システム内更新日: 2024-03-07 16:37:35.835658
- Title: Explaining Genetic Programming Trees using Large Language Models
- Title(参考訳): 大規模言語モデルを用いた遺伝的プログラミングツリーの説明
- Authors: Paula Maddigan, Andrew Lensen, Bing Xue
- Abstract要約: 遺伝的プログラミング(GP)は、特に次元の減少に使用される場合、説明可能な結果を生成する可能性がある。
本研究では,eXplainable AI (XAI) と大言語モデル (LLMs) を活用することにより,GPに基づく非線形次元削減の解釈可能性を向上させる可能性について検討する。
- 参考スコア(独自算出の注目度): 2.909922147268382
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Genetic programming (GP) has the potential to generate explainable results,
especially when used for dimensionality reduction. In this research, we
investigate the potential of leveraging eXplainable AI (XAI) and large language
models (LLMs) like ChatGPT to improve the interpretability of GP-based
non-linear dimensionality reduction. Our study introduces a novel XAI dashboard
named GP4NLDR, the first approach to combine state-of-the-art GP with an
LLM-powered chatbot to provide comprehensive, user-centred explanations. We
showcase the system's ability to provide intuitive and insightful narratives on
high-dimensional data reduction processes through case studies. Our study
highlights the importance of prompt engineering in eliciting accurate and
pertinent responses from LLMs. We also address important considerations around
data privacy, hallucinatory outputs, and the rapid advancements in generative
AI. Our findings demonstrate its potential in advancing the explainability of
GP algorithms. This opens the door for future research into explaining GP
models with LLMs.
- Abstract(参考訳): 遺伝的プログラミング(GP)は、特に次元の減少に使用される場合、説明可能な結果を生成する可能性がある。
本研究では,eXplainable AI(XAI)とChatGPTのような大規模言語モデル(LLM)を活用し,GPに基づく非線形次元削減の解釈可能性を向上させる可能性を検討する。
我々の研究はGP4NLDRという新しいXAIダッシュボードを導入し、最新のGPとLLMを利用したチャットボットを組み合わせて、総合的でユーザ中心の説明を提供する。
ケーススタディを通じて,高次元データ削減プロセスに関する直感的かつ洞察に富んだナラティブを提供するシステムの能力を紹介する。
本研究は,LSMからの正確かつ関連する応答を抽出する上で,迅速なエンジニアリングの重要性を強調した。
また、データプライバシ、幻覚出力、および生成AIの急速な進歩に関する重要な考察にも取り組んでいます。
本研究は,GPアルゴリズムの説明可能性向上の可能性を示すものである。
このことは将来のLLMによるGPモデルの説明研究の扉を開く。
関連論文リスト
- Interpretable Language Modeling via Induction-head Ngram Models [74.26720927767398]
誘導ヘッドngramモデル(Induction-Gram)を提案する。
この誘導ヘッドは、カスタムのニューラル類似度メトリックを使用して、モデルの入力コンテキストを効率的に検索し、潜在的に次の単語補完を行う。
実験により,本手法はベースラインの解釈可能なモデルよりも,単語の次単語予測を大幅に改善することが示された。
論文 参考訳(メタデータ) (2024-10-31T12:33:26Z) - ExaRanker-Open: Synthetic Explanation for IR using Open-Source LLMs [60.81649785463651]
ExaRanker-Openを導入し、オープンソース言語モデルを適用して、説明を生成する。
以上の結果から,LLMのサイズが大きくなるにつれて,説明の組み込みが神経ランク付けを継続的に促進することが明らかとなった。
論文 参考訳(メタデータ) (2024-02-09T11:23:14Z) - Domain Invariant Learning for Gaussian Processes and Bayesian
Exploration [39.83530605880014]
そこで本研究では,確率を最小限に最適化したガウス過程(DIL-GP)の領域不変学習アルゴリズムを提案する。
数値実験により、複数の合成および実世界のデータセットの予測におけるDIL-GPの優位性を示す。
論文 参考訳(メタデータ) (2023-12-18T16:13:34Z) - Graph Neural Prompting with Large Language Models [32.97391910476073]
Graph Neural Prompting (GNP)は、知識グラフから有益な知識を学ぶために、事前訓練された言語モデルを支援するための新しいプラグアンドプレイ方式である。
複数のデータセットに対する大規模な実験は、常識的および生物医学的推論タスクにおいて、GNPの優位性を示す。
論文 参考訳(メタデータ) (2023-09-27T06:33:29Z) - Exploring the Potential of Large Language Models (LLMs) in Learning on
Graphs [59.74814230246034]
大規模言語モデル(LLM)は、広範な共通知識と強力な意味理解能力を持つことが証明されている。
LLMs-as-EnhancersとLLMs-as-Predictorsの2つのパイプラインについて検討する。
論文 参考訳(メタデータ) (2023-07-07T05:31:31Z) - Explaining Patterns in Data with Language Models via Interpretable
Autoprompting [143.4162028260874]
本稿では,データを説明する自然言語文字列を生成するアルゴリズムである,解釈可能なオートプロンプト(iPrompt)を提案する。
iPromptは、基盤となるデータセット記述を正確に見つけることで、意味のある洞察を得ることができる。
fMRIデータセットを用いた実験は、iPromptが科学的発見に役立つ可能性を示している。
論文 参考訳(メタデータ) (2022-10-04T18:32:14Z) - Gradient-based explanations for Gaussian Process regression and
classification models [0.0]
ガウス過程(GP)は確率的機械学習の信頼性と効果的な方法として証明されている。
近年の進歩により、GPを用いた複雑なデータモデリングはますます実現可能になっている。
機械学習モデルの意思決定プロセスを人間に透過的にすることを目的とした、いわゆる説明可能なアプローチへの関心が高まっています。
論文 参考訳(メタデータ) (2022-05-25T14:11:00Z) - Less is More: A Call to Focus on Simpler Models in Genetic Programming
for Interpretable Machine Learning [1.0323063834827415]
解釈可能性(interpretability)は、ハイテイクなアプリケーションにおける機械学習モデルの安全かつ責任ある使用に不可欠である。
GP for IMLの研究は、低複雑さモデルにおける探索に重点を置く必要があると我々は主張する。
論文 参考訳(メタデータ) (2022-04-05T08:28:07Z) - SumGNN: Multi-typed Drug Interaction Prediction via Efficient Knowledge
Graph Summarization [64.56399911605286]
本稿では,サブグラフ抽出モジュールによって実現された知識要約グラフニューラルネットワークSumGNNを提案する。
SumGNNは5.54%まで最高のベースラインを上回り、データ関係の低いタイプでは特にパフォーマンスの向上が顕著である。
論文 参考訳(メタデータ) (2020-10-04T00:14:57Z) - Machine Learning in Nano-Scale Biomedical Engineering [77.75587007080894]
ナノスケールバイオメディカルエンジニアリングにおける機械学習の利用に関する既存の研究について概説する。
ML問題として定式化できる主な課題は、3つの主要なカテゴリに分類される。
提示された方法論のそれぞれについて、その原則、応用、制限に特に重点を置いている。
論文 参考訳(メタデータ) (2020-08-05T15:45:54Z) - Applying Genetic Programming to Improve Interpretability in Machine
Learning Models [0.3908287552267639]
我々は、GPX(Genematic Programming Explainer)という遺伝的プログラミングに基づくアプローチを提案する。
本手法は, 関心点近傍に位置する雑音を発生させ, その予測を説明すべきであり, 分析サンプルの局所的説明モデルに適合する。
以上の結果から,GPXは技術状況よりも複雑なモデルに対するより正確な理解を実現できることが示唆された。
論文 参考訳(メタデータ) (2020-05-18T16:09:49Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。