論文の概要: Triadic Fusion of Cognitive, Functional, and Causal Dimensions for Explainable LLMs: The TAXAL Framework
- arxiv url: http://arxiv.org/abs/2509.05199v1
- Date: Fri, 05 Sep 2025 15:58:49 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-08 14:27:25.641637
- Title: Triadic Fusion of Cognitive, Functional, and Causal Dimensions for Explainable LLMs: The TAXAL Framework
- Title(参考訳): 説明可能なLLMのための認知・機能・因果次元の3次元融合:TAXALフレームワーク
- Authors: David Herrera-Poyatos, Carlos Peláez-González, Cristina Zuheros, Virilo Tejedor, Rosana Montes, Francisco Herrera,
- Abstract要約: 大規模言語モデル(LLM)は、不透明さ、バイアス、不安定さが信頼と説明責任を損なうリスクの高いドメインにますますデプロイされている。
TAXALは認知(ユーザ理解)、機能(実践的有用性)、因果(忠実な推論)次元を統一する三進的融合フレームワークである。
本分析では,ポストホック属性やダイアログインタフェースから説明認識プロンプトまで,既存の手法を合成し,TAXAL三進核融合モデル内に配置する。
- 参考スコア(独自算出の注目度): 2.8053983420034547
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Large Language Models (LLMs) are increasingly being deployed in high-risk domains where opacity, bias, and instability undermine trust and accountability. Traditional explainability methods, focused on surface outputs, do not capture the reasoning pathways, planning logic, and systemic impacts of agentic LLMs. We introduce TAXAL (Triadic Alignment for eXplainability in Agentic LLMs), a triadic fusion framework that unites three complementary dimensions: cognitive (user understanding), functional (practical utility), and causal (faithful reasoning). TAXAL provides a unified, role-sensitive foundation for designing, evaluating, and deploying explanations in diverse sociotechnical settings. Our analysis synthesizes existing methods, ranging from post-hoc attribution and dialogic interfaces to explanation-aware prompting, and situates them within the TAXAL triadic fusion model. We further demonstrate its applicability through case studies in law, education, healthcare, and public services, showing how explanation strategies adapt to institutional constraints and stakeholder roles. By combining conceptual clarity with design patterns and deployment pathways, TAXAL advances explainability as a technical and sociotechnical practice, supporting trustworthy and context-sensitive LLM applications in the era of agentic AI.
- Abstract(参考訳): 大規模言語モデル(LLM)は、不透明さ、バイアス、不安定さが信頼と説明責任を損なうリスクの高いドメインにますますデプロイされている。
表面出力に焦点をあてた従来の説明可能性法は、推論経路、計画論理、エージェントLLMのシステム的影響を捉えない。
TAXAL (Triadic Alignment for eXplainability in Agentic LLMs) は認知(ユーザ理解)、機能(実践的有用性)、因果(忠実推論)の3つの相補的な次元を結合した三元融合フレームワークである。
TAXALは、様々な社会工学的な設定で説明を設計、評価、展開するための統一されたロールセンシティブな基盤を提供する。
本分析では,ポストホック属性やダイアログインタフェースから説明認識プロンプトまで,既存の手法を合成し,TAXAL三進核融合モデル内に配置する。
さらに、法律、教育、医療、公共サービスにおけるケーススタディを通じて、その適用性を実証し、説明戦略が制度上の制約やステークホルダーの役割にどのように適応するかを示す。
概念的明確さと設計パターンとデプロイメントパスを組み合わせることで、TAXALは、エージェントAIの時代における信頼性とコンテキストに敏感なLLMアプリケーションをサポートする、技術的および社会的なプラクティスとしての説明可能性を向上させる。
関連論文リスト
- Implicit Reasoning in Large Language Models: A Comprehensive Survey [67.53966514728383]
大規模言語モデル(LLM)は、幅広いタスクにまたがる強力な一般化を実証している。
最近の研究は、暗黙の推論に拍車をかけた、明示的な思考の連鎖から注意を向けている。
本調査では,表現形式から計算戦略へ焦点を移し,実行パラダイムを中心とした分類を紹介した。
論文 参考訳(メタデータ) (2025-09-02T14:16:02Z) - Integrating LLM in Agent-Based Social Simulation: Opportunities and Challenges [0.7739037410679168]
本稿では,人間の認知の重要な側面を再現する大規模言語モデルの能力に関する最近の知見をレビューする。
第2部はマルチエージェント・シミュレーション・フレームワークにおけるLLMの新しい応用について調査している。
この論文は、従来のエージェントベースモデリングプラットフォームにLLMを統合するハイブリッドアプローチを提唱することで締めくくっている。
論文 参考訳(メタデータ) (2025-07-25T15:15:35Z) - Making Sense of the Unsensible: Reflection, Survey, and Challenges for XAI in Large Language Models Toward Human-Centered AI [11.454716478837014]
説明可能なAI(XAI)は、大きな言語モデル(LLM)と多様な利害関係者の不透明な推論の間の重要なインターフェースとして機能する。
本稿では, LLM における XAI の総合的考察と調査について, 説明可能性の本質は何か? 技術的・倫理的側面は何か?
我々は、説明責任は、信頼を育み、競争を可能とし、AIシステムを制度的な説明責任と人間中心の意思決定と整合させる、市民のインフラに進化しなければならないと論じている。
論文 参考訳(メタデータ) (2025-05-18T17:30:10Z) - KERAIA: An Adaptive and Explainable Framework for Dynamic Knowledge Representation and Reasoning [46.85451489222176]
KERAIAはシンボリックナレッジエンジニアリングのための新しいフレームワークとソフトウェアプラットフォームである。
動的で複雑でコンテキストに敏感な環境で知識を表現、推論、実行するという永続的な課題に対処する。
論文 参考訳(メタデータ) (2025-05-07T10:56:05Z) - An Overview of Large Language Models for Statisticians [109.38601458831545]
大規模言語モデル(LLM)は人工知能(AI)の変換ツールとして登場した。
本稿では, 統計学者がLLMの開発に重要な貢献できる可能性について考察する。
我々は不確実性定量化、解釈可能性、公正性、プライバシー、透かし、モデル適応といった問題に焦点を当てる。
論文 参考訳(メタデータ) (2025-02-25T03:40:36Z) - Cognitive LLMs: Towards Integrating Cognitive Architectures and Large Language Models for Manufacturing Decision-making [51.737762570776006]
LLM-ACTRは、ヒトに適応し、多目的な意思決定を提供する新しいニューロシンボリックアーキテクチャである。
我々のフレームワークは、ACT-Rの内部決定過程の知識を潜在神経表現として抽出し、組み込む。
デザイン・フォー・マニュファクチャリング・タスクに関する我々の実験は、タスク性能の向上と基礎的意思決定能力の向上を両立させたものである。
論文 参考訳(メタデータ) (2024-08-17T11:49:53Z) - From Understanding to Utilization: A Survey on Explainability for Large
Language Models [27.295767173801426]
この調査は、Large Language Models (LLMs) における説明可能性の向上を示唆している。
主に、トレーニング済みの Transformer ベースの LLM に重点を置いています。
説明可能性の活用を考える際に、モデル編集、制御生成、モデル拡張に集中するいくつかの魅力的な方法を検討する。
論文 参考訳(メタデータ) (2024-01-23T16:09:53Z) - Sparsity-Guided Holistic Explanation for LLMs with Interpretable
Inference-Time Intervention [53.896974148579346]
大規模言語モデル(LLM)は、様々な自然言語処理領域において前例のないブレークスルーを達成した。
LLMの謎的なブラックボックスの性質は、透過的で説明可能なアプリケーションを妨げる、解釈可能性にとって重要な課題である。
本稿では,LLMの全体的解釈を提供することを目的として,スポーシティ誘導技術に係わる新しい方法論を提案する。
論文 参考訳(メタデータ) (2023-12-22T19:55:58Z) - Improving Open Information Extraction with Large Language Models: A
Study on Demonstration Uncertainty [52.72790059506241]
オープン情報抽出(OIE)タスクは、構造化されていないテキストから構造化された事実を抽出することを目的としている。
一般的なタスク解決手段としてChatGPTのような大きな言語モデル(LLM)の可能性にもかかわらず、OIEタスクの最先端(教師付き)メソッドは遅れている。
論文 参考訳(メタデータ) (2023-09-07T01:35:24Z) - Counterfactual Explanations as Interventions in Latent Space [62.997667081978825]
反現実的な説明は、望ましい結果を達成するために変更が必要な機能のセットをエンドユーザに提供することを目的としています。
現在のアプローチでは、提案された説明を達成するために必要な行動の実現可能性を考慮することはめったにない。
本稿では,非現実的説明を生成する手法として,潜時空間における干渉としての対実的説明(CEILS)を提案する。
論文 参考訳(メタデータ) (2021-06-14T20:48:48Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。