論文の概要: PONTE: Personalized Orchestration for Natural Language Trustworthy Explanations
- arxiv url: http://arxiv.org/abs/2603.06485v1
- Date: Fri, 06 Mar 2026 17:12:47 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-09 13:17:46.28613
- Title: PONTE: Personalized Orchestration for Natural Language Trustworthy Explanations
- Title(参考訳): PONTE: 自然言語信頼できる説明のための個人化オーケストレーション
- Authors: Vittoria Vineis, Matteo Silvestri, Lorenzo Antonelli, Filippo Betello, Gabriele Tolomei,
- Abstract要約: 大規模言語モデルは、技術的な説明を自然言語に翻訳するが、忠実さと幻覚に関連する課題を導入する。
これらの課題に対処するため、我々は、適応的で信頼性の高いXAI物語のためのHuman-in-the-loopフレームワークであるPONTEを紹介した。
PONTEはパーソナライゼーションを、プロンプトエンジニアリングよりもクローズドループ検証と適応プロセスとしてモデル化している。
- 参考スコア(独自算出の注目度): 2.2596380681650046
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Explainable Artificial Intelligence (XAI) seeks to enhance the transparency and accountability of machine learning systems, yet most methods follow a one-size-fits-all paradigm that neglects user differences in expertise, goals, and cognitive needs. Although Large Language Models can translate technical explanations into natural language, they introduce challenges related to faithfulness and hallucinations. To address these challenges, we present PONTE (Personalized Orchestration for Natural language Trustworthy Explanations), a human-in-the-loop framework for adaptive and reliable XAI narratives. PONTE models personalization as a closed-loop validation and adaptation process rather than prompt engineering. It combines: (i) a low-dimensional preference model capturing stylistic requirements; (ii) a preference-conditioned generator grounded in structured XAI artifacts; and (iii) verification modules enforcing numerical faithfulness, informational completeness, and stylistic alignment, optionally supported by retrieval-grounded argumentation. User feedback iteratively updates the preference state, enabling quick personalization. Automatic and human evaluations across healthcare and finance domains show that the verification-refinement loop substantially improves completeness and stylistic alignment over validation-free generation. Human studies further confirm strong agreement between intended preference vectors and perceived style, robustness to generation stochasticity, and consistently positive quality assessments.
- Abstract(参考訳): 説明可能な人工知能(XAI)は、機械学習システムの透明性と説明責任を高めることを目指しているが、ほとんどの手法は、専門性、目標、認知ニーズのユーザ差を無視した、一大のパラダイムに従う。
大規模言語モデルは、技術的な説明を自然言語に変換することができるが、忠実さと幻覚に関連する課題を導入する。
これらの課題に対処するため,我々は,適応的で信頼性の高いXAI物語をループで記述するPONTE(Personalized Orchestration for Natural Language Trustworthy Explanations)を提案する。
PONTEはパーソナライゼーションを、プロンプトエンジニアリングよりもクローズドループ検証と適応プロセスとしてモデル化している。
組み合わせる。
一 様式的要件を捉えた低次元の嗜好モデル
二 構造化XAIアーティファクトに根ざした選好条件付きジェネレータ
三 数値忠実性、情報完全性、様式的整合性を有する検証モジュールであって、検索地上の議論によって任意に支持されているもの。
ユーザのフィードバックは、好みの状態を反復的に更新し、迅速なパーソナライズを可能にする。
医療とファイナンス領域における自動評価と人的評価は、バリデーション・リファインメント・ループがバリデーション・フリー・ジェネレーションよりも完全性とスタイリスティックなアライメントを大幅に改善することを示している。
人間の研究は、意図された嗜好ベクトルと知覚されたスタイル、生成確率に対する堅牢性、そして一貫して肯定的な品質評価との強い一致をさらに確認する。
関連論文リスト
- Graphing the Truth: Structured Visualizations for Automated Hallucination Detection in LLMs [0.0]
本稿では,プロプライエタリな知識とモデル生成コンテンツをインタラクティブな視覚的知識グラフにまとめるフレームワークを提案する。
ユーザは不整合を診断し、弱い推論チェーンを特定し、修正フィードバックを提供する。
論文 参考訳(メタデータ) (2025-11-29T23:09:15Z) - Autoformalizer with Tool Feedback [52.334957386319864]
自動形式化は、数学的問題を自然言語から形式的ステートメントに変換することによって、ATP(Automated Theorem Proving)のデータ不足に対処する。
既存のフォーミュラライザは、構文的妥当性とセマンティック一貫性を満たす有効なステートメントを一貫して生成することに苦慮している。
本稿では,ツールフィードバックを用いたオートフォーマライザ (ATF) を提案する。
論文 参考訳(メタデータ) (2025-10-08T10:25:12Z) - Human-like Content Analysis for Generative AI with Language-Grounded Sparse Encoders [46.13876748421428]
Language-Grounded Sparses (LanSE)は、画像を自然言語記述で解釈可能な視覚パターンに分解する。
93%の人的合意で5000以上の視覚パターンが検出された。
言語基底パターンを抽出する手法は自然に多くの分野に適用できる。
論文 参考訳(メタデータ) (2025-08-20T06:50:15Z) - Dancing with Critiques: Enhancing LLM Reasoning with Stepwise Natural Language Self-Critique [66.94905631175209]
我々は、段階的に自然言語の自己批判(PANEL)を行う新しい推論時間スケーリング手法を提案する。
ステップレベルの探索プロセスのガイドとして、自己生成の自然言語批判をフィードバックとして採用している。
このアプローチは、タスク固有の検証と関連するトレーニングオーバーヘッドの必要性を回避します。
論文 参考訳(メタデータ) (2025-03-21T17:59:55Z) - Self-Improvement in Language Models: The Sharpening Mechanism [70.9248553790022]
我々は、レンズを通して自己改善の能力について、新たな視点を提供する。
言語モデルは、正しい応答を生成する場合よりも、応答品質の検証が優れているという観察に感銘を受けて、後学習において、モデル自体を検証対象として、自己改善を形式化する。
SFTとRLHFに基づく自己改善アルゴリズムの2つの自然ファミリーを解析する。
論文 参考訳(メタデータ) (2024-12-02T20:24:17Z) - Trustworthy Alignment of Retrieval-Augmented Large Language Models via Reinforcement Learning [84.94709351266557]
検索強化に関して,言語モデルの信頼性に焦点をあてる。
検索強化言語モデルには,文脈的知識とパラメトリック的知識の両方に応じて応答を供給できる本質的な能力があると考えられる。
言語モデルと人間の嗜好の整合性に着想を得て,検索強化言語モデルを外部証拠にのみ依存する状況に整合させるための第一歩を踏み出した。
論文 参考訳(メタデータ) (2024-10-22T09:25:21Z) - Learning to Generate and Evaluate Fact-checking Explanations with Transformers [10.970249299147866]
XAI(Explainable Artificial Antelligence)の研究
我々は,人間のアクセス可能な説明を生成することによって,意思決定を文脈化し,正当化するトランスフォーマーベースの事実チェックモデルを開発した。
我々は人工知能(AI)による説明と人間の判断を一致させる必要性を強調した。
論文 参考訳(メタデータ) (2024-10-21T06:22:51Z) - SCENE: Evaluating Explainable AI Techniques Using Soft Counterfactuals [0.0]
本稿では,新たな評価手法であるSCENE(Soft Counterfactual Evaluation for Natural Language Explainability)を紹介する。
トークンベースの置換に焦点を当てることで、SCENEは文脈的に適切で意味論的に意味のあるソフトカウンタブルを作成する。
SCENEは様々なXAI技法の強みと限界についての貴重な洞察を提供する。
論文 参考訳(メタデータ) (2024-08-08T16:36:24Z) - PersLLM: A Personified Training Approach for Large Language Models [66.16513246245401]
データ構築とモデルチューニングを改善するためのフレームワークPersLLMを提案する。
データ利用が不十分な場合には、Chain-of-Thoughtプロンプトやアンチインダクションといった戦略を取り入れます。
厳密な振舞いパターンを設計し,モデルの性格の特異性とダイナミズムを高めるために自動DPOを導入する。
論文 参考訳(メタデータ) (2024-07-17T08:13:22Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。