論文の概要: Residualized Similarity for Faithfully Explainable Authorship Verification
- arxiv url: http://arxiv.org/abs/2510.05362v1
- Date: Mon, 06 Oct 2025 20:41:17 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-08 17:57:07.974643
- Title: Residualized Similarity for Faithfully Explainable Authorship Verification
- Title(参考訳): 忠実に説明可能なオーサリング検証のための残留化類似性
- Authors: Peter Zeng, Pegah Alipoormolabashi, Jihu Mun, Gourab Dey, Nikita Soni, Niranjan Balasubramanian, Owen Rambow, H. Schwartz,
- Abstract要約: Residualized similarity (RS) は、ニューラルネットワークによる解釈可能な特徴を用いたシステムのサプリメントを行い、性能を向上する新しい手法である。
4つのデータセットで評価したところ、最先端のオーサシップ検証モデルの性能に適合するだけでなく、最終的な予測が忠実で解釈可能な程度にどの程度の精度で適用できるかが分かる。
- 参考スコア(独自算出の注目度): 18.7598434282115
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Responsible use of Authorship Verification (AV) systems not only requires high accuracy but also interpretable solutions. More importantly, for systems to be used to make decisions with real-world consequences requires the model's prediction to be explainable using interpretable features that can be traced to the original texts. Neural methods achieve high accuracies, but their representations lack direct interpretability. Furthermore, LLM predictions cannot be explained faithfully -- if there is an explanation given for a prediction, it doesn't represent the reasoning process behind the model's prediction. In this paper, we introduce Residualized Similarity (RS), a novel method that supplements systems using interpretable features with a neural network to improve their performance while maintaining interpretability. Authorship verification is fundamentally a similarity task, where the goal is to measure how alike two documents are. The key idea is to use the neural network to predict a similarity residual, i.e. the error in the similarity predicted by the interpretable system. Our evaluation across four datasets shows that not only can we match the performance of state-of-the-art authorship verification models, but we can show how and to what degree the final prediction is faithful and interpretable.
- Abstract(参考訳): 信頼性検証(AV)システムの責任ある使用には、高い精度だけでなく、解釈可能なソリューションも必要である。
さらに重要なのは、システムが実際の結果を決定するために使用されるためには、モデルの予測は、元のテキストにトレース可能な解釈可能な機能を使って説明する必要があることだ。
ニューラルネットワークは高い精度を達成するが、それらの表現は直接解釈性に欠ける。
さらに、LCM予測は忠実に説明できない。もし予測に説明があるなら、それはモデルの予測の背後にある推論プロセスを表すものではない。
本稿では、ニューラルネットワークによる解釈可能な特徴を用いたシステム補完手法であるResidualized similarity(RS)を導入し、解釈可能性を維持しながら性能を向上させる。
オーサシップ検証は基本的には類似性タスクであり,2つのドキュメントがどのようなものかを測定することが目標だ。
キーとなる考え方は、ニューラルネットワークを使って類似性残差、すなわち解釈可能なシステムによって予測される類似性のエラーを予測することである。
4つのデータセットで評価したところ、最先端のオーサシップ検証モデルの性能に適合するだけでなく、最終的な予測が忠実で解釈可能な程度にどの程度の精度で適用できるかが分かる。
関連論文リスト
- I Predict Therefore I Am: Is Next Token Prediction Enough to Learn Human-Interpretable Concepts from Data? [76.15163242945813]
大規模言語モデル (LLM) は、多くの人が知能の形式を示すと結論づけている。
本稿では,潜在離散変数として表現される人間解釈可能な概念に基づいてトークンを生成する新しい生成モデルを提案する。
論文 参考訳(メタデータ) (2025-03-12T01:21:17Z) - Improving Network Interpretability via Explanation Consistency Evaluation [56.14036428778861]
本稿では、より説明可能なアクティベーションヒートマップを取得し、同時にモデル性能を向上させるフレームワークを提案する。
具体的には、モデル学習において、トレーニングサンプルを適応的に重み付けするために、新しいメトリクス、すなわち説明整合性を導入する。
そこで,本フレームワークは,これらのトレーニングサンプルに深い注意を払ってモデル学習を促進する。
論文 参考訳(メタデータ) (2024-08-08T17:20:08Z) - VeriFlow: Modeling Distributions for Neural Network Verification [3.510536859655114]
フォーマル検証は、ニューラルネットワークの安全性と信頼性を保証するための有望な方法として登場した。
本稿では,検証手法が関心のあるデータ分布に限定できるように,フローベース密度モデルとしてVeriFlowアーキテクチャを提案する。
論文 参考訳(メタデータ) (2024-06-20T12:41:39Z) - Intrinsic User-Centric Interpretability through Global Mixture of Experts [31.738009841932374]
InterpretCCは、人間の理解の容易さと忠実さの説明を最適化する、本質的に解釈可能なニューラルネットワークのファミリーである。
本報告では,InterpretCCの説明は,他の本質的な解釈可能なアプローチよりも,行動性や有用性が高いことを示す。
論文 参考訳(メタデータ) (2024-02-05T11:55:50Z) - Prototype-based Aleatoric Uncertainty Quantification for Cross-modal
Retrieval [139.21955930418815]
クロスモーダル検索手法は、共通表現空間を共同学習することにより、視覚と言語モダリティの類似性関係を構築する。
しかし、この予測は、低品質なデータ、例えば、腐敗した画像、速いペースの動画、詳細でないテキストによって引き起こされるアレタリック不確実性のために、しばしば信頼性が低い。
本稿では, 原型に基づくAleatoric Uncertainity Quantification (PAU) フレームワークを提案する。
論文 参考訳(メタデータ) (2023-09-29T09:41:19Z) - Claim-Dissector: An Interpretable Fact-Checking System with Joint
Re-ranking and Veracity Prediction [4.082750656756811]
本稿では,ファクトチェックと分析のための新しい潜在変数モデルであるCrim-Dissectorを提案する。
検証可能な方法で、証拠ごとの関連性確率とその最終的な妥当性確率への寄与を解き明かす。
その解釈可能な性質にもかかわらず、私たちのシステムはFEVERデータセットの最先端と競合する。
論文 参考訳(メタデータ) (2022-07-28T14:30:06Z) - Logical Satisfiability of Counterfactuals for Faithful Explanations in
NLI [60.142926537264714]
本稿では, 忠実度スルー・カウンタファクトの方法論について紹介する。
これは、説明に表される論理述語に基づいて、反実仮説を生成する。
そして、そのモデルが表現された論理と反ファクトの予測が一致しているかどうかを評価する。
論文 参考訳(メタデータ) (2022-05-25T03:40:59Z) - Deconfounding to Explanation Evaluation in Graph Neural Networks [136.73451468551656]
我々は、全グラフと部分グラフの間に分布シフトが存在し、分布外問題を引き起こすと論じる。
本稿では,モデル予測に対する説明文の因果効果を評価するために,Decon founded Subgraph Evaluation (DSE)を提案する。
論文 参考訳(メタデータ) (2022-01-21T18:05:00Z) - Toward Scalable and Unified Example-based Explanation and Outlier
Detection [128.23117182137418]
我々は,試行錯誤の予測に例ベースの説明を与えることのできる,プロトタイプベースの学生ネットワークのより広範な採用を論じる。
類似カーネル以外のプロトタイプベースのネットワークは,分類精度を損なうことなく,有意義な説明と有望な外乱検出結果が得られることを示す。
論文 参考訳(メタデータ) (2020-11-11T05:58:17Z) - DoLFIn: Distributions over Latent Features for Interpretability [8.807587076209568]
ニューラルネットワークモデルにおける解釈可能性を実現するための新しい戦略を提案する。
我々のアプローチは、確率を中心量として使う成功に基づいている。
DoLFInは解釈可能なソリューションを提供するだけでなく、古典的なCNNやBiLSTMテキスト分類よりも若干優れています。
論文 参考訳(メタデータ) (2020-11-10T18:32:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。