論文の概要: Enhancing ML Model Interpretability: Leveraging Fine-Tuned Large Language Models for Better Understanding of AI
- arxiv url: http://arxiv.org/abs/2505.02859v1
- Date: Fri, 02 May 2025 20:57:55 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-07 18:50:11.042072
- Title: Enhancing ML Model Interpretability: Leveraging Fine-Tuned Large Language Models for Better Understanding of AI
- Title(参考訳): MLモデルの解釈可能性を高める - AIの理解を深めるために、微調整された大規模言語モデルを活用する
- Authors: Jonas Bokstaller, Julia Altheimer, Julian Dormehl, Alina Buss, Jasper Wiltfang, Johannes Schneider, Maximilian Röglinger,
- Abstract要約: 本稿では,微調整 LLM を用いた XAI の解釈のための新しい参照アーキテクチャを提案する。
我々は、電池のステート・オブ・ヘルス(SoH)予測の文脈で参照アーキテクチャをインスタンス化し、その設計を複数の評価と実演ラウンドで検証する。
評価の結果,実装されたプロトタイプは,特にXAI経験の少ないユーザに対して,MLの人間の解釈可能性を高めることが示唆された。
- 参考スコア(独自算出の注目度): 1.0737278711356866
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Across various sectors applications of eXplainableAI (XAI) gained momentum as the increasing black-boxedness of prevailing Machine Learning (ML) models became apparent. In parallel, Large Language Models (LLMs) significantly developed in their abilities to understand human language and complex patterns. By combining both, this paper presents a novel reference architecture for the interpretation of XAI through an interactive chatbot powered by a fine-tuned LLM. We instantiate the reference architecture in the context of State-of-Health (SoH) prediction for batteries and validate its design in multiple evaluation and demonstration rounds. The evaluation indicates that the implemented prototype enhances the human interpretability of ML, especially for users with less experience with XAI.
- Abstract(参考訳): eXplainableAI(XAI)の様々な分野の応用が勢いを増し、機械学習(ML)モデルのブラックボックス化が進みつつある。
並行して、Large Language Models (LLM) は人間の言語や複雑なパターンを理解する能力において著しく発達した。
本稿では,この2つを組み合わせることで,微調整 LLM を用いた対話型チャットボットによる,XAI の解釈のための新しい参照アーキテクチャを提案する。
我々は、電池のステート・オブ・ヘルス(SoH)予測の文脈で参照アーキテクチャをインスタンス化し、その設計を複数の評価と実演ラウンドで検証する。
評価の結果,実装されたプロトタイプは,特にXAI経験の少ないユーザに対して,MLの人間の解釈可能性を高めることが示唆された。
関連論文リスト
- LLMs for Explainable AI: A Comprehensive Survey [0.7373617024876725]
大規模言語モデル(LLM)は、説明可能なAI(XAI)を強化するための有望なアプローチを提供する
LLMは複雑な機械学習出力を理解しやすい物語に変換する。
LLMは洗練されたモデル行動と人間の解釈可能性のギャップを埋めることができる。
論文 参考訳(メタデータ) (2025-03-31T18:19:41Z) - Scalable Language Models with Posterior Inference of Latent Thought Vectors [52.63299874322121]
Latent-Thought Language Models (LTM) には、潜在空間における明示的な事前モデルに従う明示的な潜在思考ベクトルが含まれている。
LTMは従来のLLMを超える拡張次元を持ち、構造化された設計空間を提供する。
LTMは従来の自己回帰モデルや離散拡散モデルよりも、検証の難易度やゼロショット言語モデリングにおいて著しく優れている。
論文 参考訳(メタデータ) (2025-02-03T17:50:34Z) - SynerGen-VL: Towards Synergistic Image Understanding and Generation with Vision Experts and Token Folding [66.74446220401296]
画像の理解と生成の両方が可能なシンプルだが強力なエンコーダのないMLLMであるSynerGen-VLを提案する。
トークンの折り畳み機構と,高分解能画像理解を効果的に支援するビジョンエキスパートベースのプログレッシブアライメント事前学習戦略を導入する。
コードとモデルはリリースされます。
論文 参考訳(メタデータ) (2024-12-12T18:59:26Z) - EMMA: Efficient Visual Alignment in Multi-Modal LLMs [56.03417732498859]
EMMAは、視覚的およびテキスト的エンコーディングを効率的に融合するために設計された軽量なクロスプラットフォームモジュールである。
EMMAは複数のタスクのパフォーマンスを最大9.3%向上させ、幻覚に対する堅牢性を大幅に向上させる。
論文 参考訳(メタデータ) (2024-10-02T23:00:31Z) - X-Former: Unifying Contrastive and Reconstruction Learning for MLLMs [49.30255148577368]
X-FormerはCLとMIMの相補的な強度を利用するために設計された軽量トランスフォーマーモジュールである。
X-Formerは、2つの凍結した視覚エンコーダから視覚言語表現学習とマルチモーダル・マルチモーダル生成学習をブートストラップする。
さらに、凍結したLLMから視覚から言語への生成学習をブートストラップし、X-Formerの視覚的特徴をLLMで解釈できるようにする。
論文 参考訳(メタデータ) (2024-07-18T18:39:54Z) - TokenSHAP: Interpreting Large Language Models with Monte Carlo Shapley Value Estimation [0.0]
TokenSHAPは、大規模言語モデルを解釈する新しい方法である。
これは、協調ゲーム理論から自然言語処理へのシェープリー値の適応である。
トークンの重要性を解釈可能で定量的に測定する。
論文 参考訳(メタデータ) (2024-07-14T08:07:50Z) - Explaining Multi-modal Large Language Models by Analyzing their Vision Perception [4.597864989500202]
本研究では,画像埋め込み成分に着目し,MLLMの解釈可能性を高める新しい手法を提案する。
オープンワールドのローカライゼーションモデルとMLLMを組み合わせることで、同じビジョンの埋め込みからテキストとオブジェクトのローカライゼーション出力を同時に生成できる新しいアーキテクチャを構築する。
論文 参考訳(メタデータ) (2024-05-23T14:24:23Z) - LLMs for XAI: Future Directions for Explaining Explanations [50.87311607612179]
既存のXAIアルゴリズムを用いて計算した説明の精細化に着目する。
最初の実験とユーザスタディは、LLMがXAIの解釈可能性とユーザビリティを高めるための有望な方法を提供することを示唆している。
論文 参考訳(メタデータ) (2024-05-09T19:17:47Z) - Scaling Vision-Language Models with Sparse Mixture of Experts [128.0882767889029]
提案手法は, 等価計算コストの高密度モデルに対して, 様々なベンチマークにおいて, 最先端性能を実現することができることを示す。
我々の研究は、MoEモデルのトレーニングの安定化、モデル解釈可能性に対するMoEの影響の理解、ビジョン言語モデルをスケールする際の計算性能間のトレードオフのバランスに関する貴重な洞察を提供する。
論文 参考訳(メタデータ) (2023-03-13T16:00:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。