論文の概要: ICX360: In-Context eXplainability 360 Toolkit
- arxiv url: http://arxiv.org/abs/2511.10879v1
- Date: Fri, 14 Nov 2025 01:17:55 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-17 22:42:18.382449
- Title: ICX360: In-Context eXplainability 360 Toolkit
- Title(参考訳): ICX360: In-Context eXplainability 360 Toolkit
- Authors: Dennis Wei, Ronny Luss, Xiaomeng Hu, Lucas Monteiro Paes, Pin-Yu Chen, Karthikeyan Natesan Ramamurthy, Erik Miehling, Inge Vejsbjerg, Hendrik Strobelt,
- Abstract要約: 大規模言語モデル (LLM) は日常的に広く普及し, より高度な応用が進んでいる。
LLMを説明するためのオープンソースのPythonツールキットであるIn-Context Explainability 360 (I CX360)を紹介する。
I CX360には、ブラックボックスとホワイトボックスの両方を使ってLCMを説明する最近の3つのツールの実装が含まれている。
- 参考スコア(独自算出の注目度): 64.10661843585086
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Large Language Models (LLMs) have become ubiquitous in everyday life and are entering higher-stakes applications ranging from summarizing meeting transcripts to answering doctors' questions. As was the case with earlier predictive models, it is crucial that we develop tools for explaining the output of LLMs, be it a summary, list, response to a question, etc. With these needs in mind, we introduce In-Context Explainability 360 (ICX360), an open-source Python toolkit for explaining LLMs with a focus on the user-provided context (or prompts in general) that are fed to the LLMs. ICX360 contains implementations for three recent tools that explain LLMs using both black-box and white-box methods (via perturbations and gradients respectively). The toolkit, available at https://github.com/IBM/ICX360, contains quick-start guidance materials as well as detailed tutorials covering use cases such as retrieval augmented generation, natural language generation, and jailbreaking.
- Abstract(参考訳): 大型言語モデル (LLM) は日常的に普及し, 会議記録の要約から医師の質問への回答まで, 高度な応用が進んでいる。
従来の予測モデルと同様に、私たちはLCMのアウトプットを説明するツールを開発することが重要です。
これらのニーズを念頭に置いて、LLMに供給されるユーザが提供するコンテキスト(あるいは一般的にはプロンプト)に焦点を当てた、LLMを説明するためのオープンソースのPythonツールキットであるIn-Context Explainability 360 (ICX360)を紹介します。
ICX360は、ブラックボックスとホワイトボックスの2つの方法(それぞれ摂動と勾配)を使ってLCMを説明する3つの最近のツールの実装を含んでいる。
ツールキットはhttps://github.com/IBM/ICX360で利用可能で、クイックスタートのガイダンス資料と、検索拡張生成、自然言語生成、ジェイルブレイクといったユースケースをカバーする詳細なチュートリアルが含まれている。
関連論文リスト
- LLM Enhancer: Merged Approach using Vector Embedding for Reducing Large Language Model Hallucinations with External Knowledge [0.0]
大規模言語モデル(LLM)は、様々なタスクにまたがる自然な応答を生成する能力を実証した。
本稿では,Google,Wikipedia,DuckDuckGoなどの複数のオンラインソースを統合して,データの精度を向上させるLLM ENHANCERシステムを提案する。
論文 参考訳(メタデータ) (2025-04-29T19:27:04Z) - Multi-Level Explanations for Generative Language Models [45.82956216020136]
生成言語モデル(MExGen)のためのマルチレベル記述法を提案する。
MExGenは、スコアをコンテキストの一部に割り当て、モデルの出力への影響を定量化する。
我々は,要約と質問応答のための摂動に基づく帰属手法の,自動的および人的両方の体系的評価を行う。
論文 参考訳(メタデータ) (2024-03-21T15:06:14Z) - LLMCheckup: Conversational Examination of Large Language Models via Interpretability Tools and Self-Explanations [26.340786701393768]
対話の形で説明を提供する解釈可能性ツールは,ユーザの理解を高める上で有効であることを示す。
しかしながら、対話ベースの説明のための現在のソリューションは、しばしば外部ツールやモジュールを必要とし、設計されていないタスクに簡単に転送できない。
ユーザがその振る舞いについて,最先端の大規模言語モデル(LLM)とチャットできる,アクセスしやすいツールを提案する。
論文 参考訳(メタデータ) (2024-01-23T09:11:07Z) - MLLM-Tool: A Multimodal Large Language Model For Tool Agent Learning [40.32823306537386]
本稿では,オープンソースの大規模言語モデルとマルチモーダルエンコーダを組み合わせたMLLM-Toolを提案する。
データセットにはHuggingFaceからのマルチモーダル入力ツールが特徴です。
実験の結果,MLLM-Toolはマルチモーダル命令に適したツールを推奨できることがわかった。
論文 参考訳(メタデータ) (2024-01-19T14:44:37Z) - EASYTOOL: Enhancing LLM-based Agents with Concise Tool Instruction [56.02100384015907]
EasyToolは、多種多様で長いツールドキュメントを統一的で簡潔なツール命令に変換するフレームワークである。
トークン使用量を大幅に削減し、現実のシナリオにおけるツール利用のパフォーマンスを向上させることができる。
論文 参考訳(メタデータ) (2024-01-11T15:45:11Z) - ToolLLM: Facilitating Large Language Models to Master 16000+ Real-world
APIs [104.37772295581088]
オープンソースの大規模言語モデル(LLM)、例えばLLaMAは、ツール使用能力に大きく制限されている。
データ構築、モデルトレーニング、評価を含む汎用ツールであるToolLLMを紹介する。
ツール使用のためのインストラクションチューニングフレームワークであるToolBenchを,ChatGPTを使って自動構築する。
論文 参考訳(メタデータ) (2023-07-31T15:56:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。