論文の概要: Leveraging Community and Author Context to Explain the Performance and
Bias of Text-Based Deception Detection Models
- arxiv url: http://arxiv.org/abs/2104.13490v1
- Date: Tue, 27 Apr 2021 21:49:34 GMT
- ステータス: 処理完了
- システム内更新日: 2023-04-02 06:29:55.942214
- Title: Leveraging Community and Author Context to Explain the Performance and
Bias of Text-Based Deception Detection Models
- Title(参考訳): コミュニティと著者のコンテキストを活用したテキストに基づく誤読検出モデルの性能とバイアス
- Authors: Galen Weld, Ellyn Ayton, Tim Althoff, and Maria Glenski
- Abstract要約: オンラインコミュニティで共有されている偽ニュースは、NLPモデルで検出することができる。
我々は,オンラインコミュニティの特徴と著者を用いて,ニューラルネットワークの騙し検出モデルの性能を説明する。
- 参考スコア(独自算出の注目度): 6.428095289290804
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Deceptive news posts shared in online communities can be detected with NLP
models, and much recent research has focused on the development of such models.
In this work, we use characteristics of online communities and authors -- the
context of how and where content is posted -- to explain the performance of a
neural network deception detection model and identify sub-populations who are
disproportionately affected by model accuracy or failure. We examine who is
posting the content, and where the content is posted to. We find that while
author characteristics are better predictors of deceptive content than
community characteristics, both characteristics are strongly correlated with
model performance. Traditional performance metrics such as F1 score may fail to
capture poor model performance on isolated sub-populations such as specific
authors, and as such, more nuanced evaluation of deception detection models is
critical.
- Abstract(参考訳): オンラインコミュニティで共有されている偽ニュース記事はNLPモデルで検出でき、近年ではそのようなモデルの開発に焦点が当てられている。
本研究では、オンラインコミュニティの特徴(コンテンツが投稿されている状況と状況)を用いて、ニューラルネットワークの偽装検出モデルの性能を説明し、モデルの正確さや失敗によって不均衡に影響を受けるサブ人口を特定する。
我々は、誰がコンテンツを投稿しているか、どのコンテンツが投稿されているかを調べる。
著者特性は, コミュニティ特性よりも, 偽装コンテンツの予測因子として優れているが, どちらの特性もモデル性能と強く相関していることがわかった。
F1スコアのような従来のパフォーマンス指標は、特定の著者のような孤立したサブポピュレーション上での貧弱なモデルパフォーマンスを捉えることに失敗する可能性がある。
関連論文リスト
- Unsupervised Model Diagnosis [49.36194740479798]
本稿では,ユーザガイドを使わずに,意味論的対実的説明を生成するために,Unsupervised Model Diagnosis (UMO)を提案する。
提案手法は意味論における変化を特定し可視化し,その変化を広範囲なテキストソースの属性と照合する。
論文 参考訳(メタデータ) (2024-10-08T17:59:03Z) - DECIDER: Leveraging Foundation Model Priors for Improved Model Failure Detection and Explanation [18.77296551727931]
本稿では,大規模言語モデル (LLM) と視覚言語モデル (VLM) の先行情報を利用した画像モデルの故障検出手法であるDECIDERを提案する。
DECIDERは一貫して最先端の故障検出性能を達成し、マシューズ相関係数全体のベースラインを著しく上回っている。
論文 参考訳(メタデータ) (2024-08-01T07:08:11Z) - Explaining Pre-Trained Language Models with Attribution Scores: An
Analysis in Low-Resource Settings [32.03184402316848]
我々は,素早いモデルから抽出した帰属スコアの妥当性と忠実度を分析した。
プロンプトパラダイムを用いることで、低リソース環境下でモデルを微調整するよりも、より妥当な説明が得られます。
論文 参考訳(メタデータ) (2024-03-08T14:14:37Z) - Preserving Knowledge Invariance: Rethinking Robustness Evaluation of
Open Information Extraction [50.62245481416744]
実世界におけるオープン情報抽出モデルの評価をシミュレートする最初のベンチマークを示す。
我々は、それぞれの例が知識不変のcliqueである大規模なテストベッドを設計し、注釈付けする。
さらにロバスト性計量を解明することにより、その性能が全体の傾きに対して一貫して正確であるならば、モデルはロバストであると判断される。
論文 参考訳(メタデータ) (2023-05-23T12:05:09Z) - Causal Analysis for Robust Interpretability of Neural Networks [0.2519906683279152]
我々は、事前学習されたニューラルネットワークの因果効果を捉えるための頑健な介入に基づく手法を開発した。
分類タスクで訓練された視覚モデルに本手法を適用した。
論文 参考訳(メタデータ) (2023-05-15T18:37:24Z) - Who Explains the Explanation? Quantitatively Assessing Feature
Attribution Methods [0.0]
本稿では,説明の忠実度を定量化するための新しい評価指標であるフォーカス(Focus)を提案する。
ランダム化実験によって測定値のロバスト性を示し、次にFocusを用いて3つの一般的な説明可能性手法を評価し比較する。
実験の結果,LRPとGradCAMは一貫性があり信頼性が高いことがわかった。
論文 参考訳(メタデータ) (2021-09-28T07:10:24Z) - A comprehensive comparative evaluation and analysis of Distributional
Semantic Models [61.41800660636555]
我々は、静的DSMによって生成されたり、BERTによって生成された文脈化されたベクトルを平均化して得られるような、型分布ベクトルの包括的評価を行う。
その結果、予測ベースモデルの優越性は現実よりも明らかであり、ユビキタスではないことが明らかとなった。
我々は認知神経科学からRepresentational similarity Analysis(RSA)の方法論を借りて、分布モデルによって生成された意味空間を検査する。
論文 参考訳(メタデータ) (2021-05-20T15:18:06Z) - Generative Counterfactuals for Neural Networks via Attribute-Informed
Perturbation [51.29486247405601]
AIP(Attribute-Informed Perturbation)の提案により,生データインスタンスの反事実を生成するフレームワークを設計する。
異なる属性を条件とした生成モデルを利用することで、所望のラベルとの反事実を効果的かつ効率的に得ることができる。
実世界のテキストや画像に対する実験結果から, 設計したフレームワークの有効性, サンプル品質, および効率が示された。
論文 参考訳(メタデータ) (2021-01-18T08:37:13Z) - Firearm Detection via Convolutional Neural Networks: Comparing a
Semantic Segmentation Model Against End-to-End Solutions [68.8204255655161]
武器の脅威検出とライブビデオからの攻撃的な行動は、潜在的に致命的な事故の迅速検出と予防に使用できる。
これを実現する一つの方法は、人工知能と、特に画像分析のための機械学習を使用することです。
従来のモノリシックなエンド・ツー・エンドのディープラーニングモデルと、セマンティクスセグメンテーションによって火花を検知する単純なニューラルネットワークのアンサンブルに基づく前述したモデルを比較した。
論文 参考訳(メタデータ) (2020-12-17T15:19:29Z) - Learning by Semantic Similarity Makes Abstractive Summarization Better [13.324006587838522]
近年のLM, BART, およびベンチマークデータセットCNN/DMの参照要約を比較した。
興味深いことに、モデル生成サマリーは参照サマリーと比較して高いスコアを受け取る。
論文 参考訳(メタデータ) (2020-02-18T17:59:02Z) - Rethinking Generalization of Neural Models: A Named Entity Recognition
Case Study [81.11161697133095]
NERタスクをテストベッドとして、異なる視点から既存モデルの一般化挙動を分析する。
詳細な分析による実験は、既存のニューラルNERモデルのボトルネックを診断する。
本論文の副産物として,最近のNER論文の包括的要約を含むプロジェクトをオープンソース化した。
論文 参考訳(メタデータ) (2020-01-12T04:33:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。