論文の概要: KnowThyself: An Agentic Assistant for LLM Interpretability
- arxiv url: http://arxiv.org/abs/2511.03878v1
- Date: Wed, 05 Nov 2025 21:48:13 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-07 20:17:53.224381
- Title: KnowThyself: An Agentic Assistant for LLM Interpretability
- Title(参考訳): KnowThyself: LLM解釈のためのエージェントアシスタント
- Authors: Suraj Prasai, Mengnan Du, Ying Zhang, Fan Yang,
- Abstract要約: KnowThyselfは、大規模言語モデル(LLM)の解釈可能性を向上させるエージェントアシスタントである。
既存のツールは有用な洞察を提供するが、断片化され、コード集約的なままだ。KnowThyselfはこれらの機能をチャットベースのインターフェイスに統合し、ユーザーはモデルをアップロードしたり、自然言語の質問をしたり、ガイド付き説明でインタラクティブな視覚化を得ることができる。
- 参考スコア(独自算出の注目度): 27.096983495974083
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We develop KnowThyself, an agentic assistant that advances large language model (LLM) interpretability. Existing tools provide useful insights but remain fragmented and code-intensive. KnowThyself consolidates these capabilities into a chat-based interface, where users can upload models, pose natural language questions, and obtain interactive visualizations with guided explanations. At its core, an orchestrator LLM first reformulates user queries, an agent router further directs them to specialized modules, and the outputs are finally contextualized into coherent explanations. This design lowers technical barriers and provides an extensible platform for LLM inspection. By embedding the whole process into a conversational workflow, KnowThyself offers a robust foundation for accessible LLM interpretability.
- Abstract(参考訳): 我々は,大規模言語モデル(LLM)の解釈性を向上するエージェントアシスタントであるKnowThyselfを開発する。
既存のツールは有用な洞察を提供するが、断片的でコード集約的である。
KnowThyselfは、これらの機能をチャットベースのインターフェイスに統合し、ユーザーはモデルをアップロードしたり、自然言語の質問をポーズしたり、ガイド付き説明付きでインタラクティブなヴィジュアライゼーションを得ることができる。
オーケストレータLLMがまずユーザクエリをリフォームし、エージェントルータがそれらを特別なモジュールに誘導し、最終的に出力をコンテキスト化してコヒーレントな説明を行う。
この設計は技術的障壁を低くし、LLM検査のための拡張可能なプラットフォームを提供する。
プロセス全体を会話ワークフローに埋め込むことで、KnowThyselfはLLM解釈可能性のための堅牢な基盤を提供する。
関連論文リスト
- A Roadmap for Tamed Interactions with Large Language Models [5.133046277847902]
大規模言語モデル(LLM)によって駆動されるAI駆動ソフトウェアが誕生するのを私たちは目撃しています。
これらのLSMの応用は印象的であり、数え切れないほどに思えるが、その堅牢性は採用を妨げる。
LSLでは, LLM出力の制御, 相互作用の構造の強制, 検証, 検証, 説明可能性の両面を統合することで, 上記の限界に対処することを目指している。
論文 参考訳(メタデータ) (2025-10-28T13:46:07Z) - LLM Enhancer: Merged Approach using Vector Embedding for Reducing Large Language Model Hallucinations with External Knowledge [0.0]
大規模言語モデル(LLM)は、様々なタスクにまたがる自然な応答を生成する能力を実証した。
本稿では,Google,Wikipedia,DuckDuckGoなどの複数のオンラインソースを統合して,データの精度を向上させるLLM ENHANCERシステムを提案する。
論文 参考訳(メタデータ) (2025-04-29T19:27:04Z) - debug-gym: A Text-Based Environment for Interactive Debugging [55.11603087371956]
大規模言語モデル(LLM)は、コーディングタスクにますます依存している。
LLMは、タスクに関連する情報を集めるために対話的にAを探索する能力の恩恵を受けることができると仮定する。
対話型符号化環境において,LLMベースのエージェントを開発するためのテキスト環境,すなわちデバッグジャムを提案する。
論文 参考訳(メタデータ) (2025-03-27T14:43:28Z) - DFA-RAG: Conversational Semantic Router for Large Language Model with Definite Finite Automaton [44.26173742405563]
本稿では,Definite Finite Automaton (DFA-RAG)を用いた検索強化大言語モデルを提案する。
DFA-RAGは,大規模言語モデル(LLM)を用いた対話エージェントの機能向上を目的としたフレームワークである。
論文 参考訳(メタデータ) (2024-02-06T21:14:45Z) - LLMCheckup: Conversational Examination of Large Language Models via Interpretability Tools and Self-Explanations [26.340786701393768]
対話の形で説明を提供する解釈可能性ツールは,ユーザの理解を高める上で有効であることを示す。
しかしながら、対話ベースの説明のための現在のソリューションは、しばしば外部ツールやモジュールを必要とし、設計されていないタスクに簡単に転送できない。
ユーザがその振る舞いについて,最先端の大規模言語モデル(LLM)とチャットできる,アクセスしやすいツールを提案する。
論文 参考訳(メタデータ) (2024-01-23T09:11:07Z) - If LLM Is the Wizard, Then Code Is the Wand: A Survey on How Code
Empowers Large Language Models to Serve as Intelligent Agents [81.60906807941188]
大型言語モデル(LLM)は、自然言語と形式言語(コード)の組み合わせに基づいて訓練される
コードは、標準構文、論理一貫性、抽象化、モジュール性を備えた高レベルの目標を実行可能なステップに変換する。
論文 参考訳(メタデータ) (2024-01-01T16:51:20Z) - Augmented Large Language Models with Parametric Knowledge Guiding [72.71468058502228]
大規模言語モデル(LLM)は、言語理解と生成能力に優れた自然言語処理(NLP)を備えています。
それらのパフォーマンスは、関連するデータへの限られた露出のために専門的な知識を必要とするドメイン固有のタスクに最適であるかもしれない。
本稿では,LLMに関連知識にアクセスするための知識誘導モジュールを組み込んだ新しいPKGフレームワークを提案する。
論文 参考訳(メタデータ) (2023-05-08T15:05:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。