論文の概要: VEXA: Evidence-Grounded and Persona-Adaptive Explanations for Scam Risk Sensemaking
- arxiv url: http://arxiv.org/abs/2602.05056v1
- Date: Wed, 04 Feb 2026 21:16:24 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-06 18:49:08.620929
- Title: VEXA: Evidence-Grounded and Persona-Adaptive Explanations for Scam Risk Sensemaking
- Title(参考訳): VEXA:詐欺リスク・センス作成のためのエビデンス・グラウンドとペルソナ・アダプティブ・説明
- Authors: Heajun An, Connor Ng, Sandesh Sharma Dulal, Junghwan Kim, Jin-Hee Cho,
- Abstract要約: 電子メール、ショートメッセージサービス、ソーシャルメディアなどのオンライン詐欺は、日々のリスク評価にますます挑戦している。
我々は,学習者向け詐欺説明を生成するためのエビデンス・グラウンドとペルソナ・アダプティブ・フレームワークであるVEXAを提案する。
- 参考スコア(独自算出の注目度): 9.22587207148122
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Online scams across email, short message services, and social media increasingly challenge everyday risk assessment, particularly as generative AI enables more fluent and context-aware deception. Although transformer-based detectors achieve strong predictive performance, their explanations are often opaque to non-experts or misaligned with model decisions. We propose VEXA, an evidence-grounded and persona-adaptive framework for generating learner-facing scam explanations by integrating GradientSHAP-based attribution with theory-informed vulnerability personas. Evaluation across multi-channel datasets shows that grounding explanations in detector-derived evidence improves semantic reliability without increasing linguistic complexity, while persona conditioning introduces interpretable stylistic variation without disrupting evidential alignment. These results reveal a key design insight: evidential grounding governs semantic correctness, whereas persona-based adaptation operates at the level of presentation under constraints of faithfulness. Together, VEXA demonstrates the feasibility of persona-adaptive, evidence-grounded explanations and provides design guidance for trustworthy, learner-facing security explanations in non-formal contexts.
- Abstract(参考訳): 電子メール、ショートメッセージサービス、ソーシャルメディアにわたるオンライン詐欺は、日々のリスク評価にますます挑戦している。
変圧器をベースとした検出器は強い予測性能を達成するが、その説明はしばしば非専門家には不透明であり、モデル決定に不適合である。
本研究では,GradientSHAPに基づく属性を理論インフォームド・脆弱性ペルソナと組み合わせることで,学習者を対象とした詐欺的説明を生成するためのエビデンス・グラウンドとペルソナ・アダプティブ・フレームワークであるVEXAを提案する。
マルチチャネルデータセットによる評価では,検出者による証拠の根拠的説明は言語的複雑性を増大させることなく意味的信頼性を向上させる一方で,ペルソナ条件付けでは明らかなアライメントを損なうことなく解釈可能なスタイル変化を導入することが示されている。
明らかな根拠は意味的正当性を支配するが、ペルソナに基づく適応は忠実さの制約の下でプレゼンテーションのレベルで機能する。
VEXAは、ペルソナ適応的でエビデンスに基づく説明の実現可能性を示し、非形式的文脈における信頼できる学習者向けセキュリティ説明のための設計ガイダンスを提供する。
関連論文リスト
- From Passive Metric to Active Signal: The Evolving Role of Uncertainty Quantification in Large Language Models [77.04403907729738]
このサーベイは、受動的診断基準からリアルタイムモデル動作を導くアクティブ制御信号への不確実性の進化をグラフ化する。
3つのフロンティアにまたがるアクティブ制御信号として不確実性がいかに活用されているかを示す。
この調査は、次世代のスケーラブルで信頼性があり、信頼できるAIを構築するためには、新しい不確実性のトレンドを習得することが不可欠である、と論じている。
論文 参考訳(メタデータ) (2026-01-22T06:21:31Z) - REFLEX: Self-Refining Explainable Fact-Checking via Disentangling Truth into Style and Substance [14.932352020762991]
本稿ではReason-Guided Fact-checking with Latent Explanations REFLEX paradigmを提案する。
バックボーンモデルの内部知識を活用して、検証精度と説明品質の両方を改善する、プラグアンドプレイの自己修正パラダイムである。
自己修正されたトレーニングサンプルはわずか465で、RELFEXは最先端のパフォーマンスを達成する。
論文 参考訳(メタデータ) (2025-11-25T12:06:23Z) - Exploring Semantic-constrained Adversarial Example with Instruction Uncertainty Reduction [51.50282796099369]
本稿では,多次元命令の不確実性低減フレームワークを開発し,意味論的に制約された逆の例を生成する。
言語誘導サンプリングプロセスの予測により、設計したResAdv-DDIMサンプルにより最適化プロセスが安定化される。
セマンティック制約付き3次元逆数例の参照フリー生成を初めて実現した。
論文 参考訳(メタデータ) (2025-10-27T04:02:52Z) - Generalizable Speech Deepfake Detection via Information Bottleneck Enhanced Adversarial Alignment [48.73836179661632]
信頼誘導対向アライメントは、識別的手がかりを消去することなく攻撃固有のアーティファクトを適応的に抑制する。
IB-CAANは、多くのベンチマークにおいて、ベースラインと最先端のパフォーマンスを一貫して上回る。
論文 参考訳(メタデータ) (2025-09-28T03:48:49Z) - FIRE: Faithful Interpretable Recommendation Explanations [2.6499018693213316]
推薦システムにおける自然言語の説明は、しばしばレビュー生成タスクとしてフレーム化される。
FireはSHAPベースの特徴属性と構造化されたプロンプト駆動言語生成を組み合わせた軽量で解釈可能なフレームワークである。
この結果から,FIREは競争推奨精度を達成するだけでなく,アライメント,構造,忠実度といった重要な次元に沿った説明品質を著しく向上することが示された。
論文 参考訳(メタデータ) (2025-08-07T10:11:02Z) - On the Loss of Context-awareness in General Instruction Fine-tuning [101.03941308894191]
教師付き微調整後の文脈認識の喪失について検討した。
性能低下は,会話指導の微調整中に学んだ異なる役割に対する偏見と関連していることがわかった。
一般命令微調整データセットから文脈依存例を識別する指標を提案する。
論文 参考訳(メタデータ) (2024-11-05T00:16:01Z) - Con-ReCall: Detecting Pre-training Data in LLMs via Contrastive Decoding [118.75567341513897]
既存のメソッドは通常、ターゲットテキストを分離して分析するか、非メンバーコンテキストでのみ分析する。
Con-ReCallは、メンバと非メンバのコンテキストによって誘導される非対称な分布シフトを利用する新しいアプローチである。
論文 参考訳(メタデータ) (2024-09-05T09:10:38Z) - Alert-ME: An Explainability-Driven Defense Against Adversarial Examples in Transformer-Based Text Classification [9.818997495801705]
本稿では、予測時間防御を強化するために、説明可能性駆動型検出・識別・変換(EDIT)と呼ばれる統一的なフレームワークを提案する。
EDITは、アテンションマップや統合勾配などの説明可能性ツールと周波数ベースの機能を統合し、敵の摂動を自動的に検出し識別する。
このフレームワークは、テキスト分類モデルにおける標準、ゼロデイおよび適応的な敵の脅威に対して、堅牢で、解釈可能で、効率的な保護を提供する。
論文 参考訳(メタデータ) (2023-07-03T03:17:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。