論文の概要: Explained anomaly detection in text reviews: Can subjective scenarios be
correctly evaluated?
- arxiv url: http://arxiv.org/abs/2311.04948v1
- Date: Wed, 8 Nov 2023 11:51:47 GMT
- ステータス: 処理完了
- システム内更新日: 2023-11-10 17:12:31.357502
- Title: Explained anomaly detection in text reviews: Can subjective scenarios be
correctly evaluated?
- Title(参考訳): テキストレビューにおける説明異常検出:主観的シナリオを正しく評価できるか?
- Authors: David Novoa-Paradela, Oscar Fontenla-Romero, Bertha
Guijarro-Berdi\~nas
- Abstract要約: 本稿では,オンラインプラットフォームにおける異常レビューの検出と説明を行うパイプラインを提案する。
パイプラインの異常検出タスクを解決する能力は、大規模なAmazonデータベースから生成されたさまざまなデータセットを使用して評価された。
- 参考スコア(独自算出の注目度): 0.27624021966289597
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: This paper presents a pipeline to detect and explain anomalous reviews in
online platforms. The pipeline is made up of three modules and allows the
detection of reviews that do not generate value for users due to either
worthless or malicious composition. The classifications are accompanied by a
normality score and an explanation that justifies the decision made. The
pipeline's ability to solve the anomaly detection task was evaluated using
different datasets created from a large Amazon database. Additionally, a study
comparing three explainability techniques involving 241 participants was
conducted to assess the explainability module. The study aimed to measure the
impact of explanations on the respondents' ability to reproduce the
classification model and their perceived usefulness. This work can be useful to
automate tasks in review online platforms, such as those for electronic
commerce, and offers inspiration for addressing similar problems in the field
of anomaly detection in textual data. We also consider it interesting to have
carried out a human evaluation of the capacity of different explainability
techniques in a real and infrequent scenario such as the detection of anomalous
reviews, as well as to reflect on whether it is possible to explain tasks as
humanly subjective as this one.
- Abstract(参考訳): 本稿では,オンラインプラットフォームにおける異常レビューの検出と説明を行うパイプラインを提案する。
パイプラインは3つのモジュールで構成されており、価値のない構成でも悪意のある構成でもユーザの価値を生まないレビューの検出を可能にする。
分類には正規性スコアと、意思決定を正当化する説明が伴う。
異常検出タスクを解決するパイプラインの能力は、大規模なamazonデータベースから作成されたさまざまなデータセットを使用して評価された。
また,説明可能性モジュールを評価するために,241名の参加者を含む3つの説明可能性手法を比較した。
本研究は,分類モデルの再現能力とその有用性に対する説明の影響を評価することを目的とした。
この作業は、電子商取引などのオンラインプラットフォームレビューにおけるタスクの自動化に有用であり、テキストデータにおける異常検出の分野における同様の問題に対処するためのインスピレーションを与える。
また,異常なレビューの検出などの現実的かつ不適切なシナリオにおいて,説明可能性の異なる手法の能力について人間による評価を行うことや,タスクを人間的に主観的に説明できるかどうかを考察することも興味深い。
関連論文リスト
- Evaluating the Utility of Model Explanations for Model Development [54.23538543168767]
機械学習モデル構築の実践シナリオにおいて、説明が人間の意思決定を改善するかどうかを評価する。
驚いたことに、サリエンシマップが提供されたとき、タスクが大幅に改善されたという証拠は見つからなかった。
以上の結果から,サリエンシに基づく説明における誤解の可能性と有用性について注意が必要であることが示唆された。
論文 参考訳(メタデータ) (2023-12-10T23:13:23Z) - Explaining by Imitating: Understanding Decisions by Interpretable Policy
Learning [72.80902932543474]
観察されたデータから人間の行動を理解することは、意思決定における透明性と説明責任にとって重要である。
意思決定者の方針をモデル化することが困難である医療などの現実的な設定を考えてみましょう。
本稿では, 設計による透明性の向上, 部分観測可能性の確保, 完全にオフラインで動作可能なデータ駆動型意思決定行動の表現を提案する。
論文 参考訳(メタデータ) (2023-10-28T13:06:14Z) - Right for the Wrong Reason: Can Interpretable ML Techniques Detect
Spurious Correlations? [2.7558542803110244]
本稿では,素早い相関関係を正確に識別する説明手法の能力を評価するための厳密な評価手法を提案する。
ポストホックな手法であるSHAPと本質的に解釈可能なAttri-Netが最高のパフォーマンスを提供することがわかった。
論文 参考訳(メタデータ) (2023-07-23T14:43:17Z) - Robust and Explainable Identification of Logical Fallacies in Natural
Language Arguments [5.850977561881791]
論理的誤りに関する先行理論を総合的な3段階評価フレームワークに定式化する。
我々は,プロトタイプ推論,インスタンスベースの推論,知識注入に基づく,堅牢で説明可能な3つの手法を取り入れている。
我々はこれらの手法をデータセット上で広範囲に評価し、その堅牢性と説明可能性に焦点を当てた。
論文 参考訳(メタデータ) (2022-12-12T20:27:17Z) - Empirical Estimates on Hand Manipulation are Recoverable: A Step Towards
Individualized and Explainable Robotic Support in Everyday Activities [80.37857025201036]
ロボットシステムの鍵となる課題は、他のエージェントの振る舞いを理解することである。
正しい推論の処理は、(衝突)因子が実験的に制御されない場合、特に困難である。
人に関する観察研究を行うために必要なツールをロボットに装備することを提案する。
論文 参考訳(メタデータ) (2022-01-27T22:15:56Z) - AES Systems Are Both Overstable And Oversensitive: Explaining Why And
Proposing Defenses [66.49753193098356]
スコアリングモデルの驚くべき逆方向の脆さの原因について検討する。
のモデルとして訓練されているにもかかわらず、単語の袋のように振る舞うことを示唆している。
高い精度で試料を発生させる過敏性と過敏性を検出できる検出ベース保護モデルを提案する。
論文 参考訳(メタデータ) (2021-09-24T03:49:38Z) - Counterfactual Evaluation for Explainable AI [21.055319253405603]
そこで本稿では, 文献的推論の観点から, 説明の忠実さを評価する新しい手法を提案する。
離散シナリオと連続シナリオの両方において適切な反事実を見つけるために2つのアルゴリズムを導入し、取得した反事実を用いて忠実度を測定する。
論文 参考訳(メタデータ) (2021-09-05T01:38:49Z) - Nested Counterfactual Identification from Arbitrary Surrogate
Experiments [95.48089725859298]
観測と実験の任意の組み合わせからネスト反事実の同定について検討した。
具体的には、任意のネストされた反事実を非ネストされたものへ写像できる反ファクト的非ネスト定理(英語版)(CUT)を証明する。
論文 参考訳(メタデータ) (2021-07-07T12:51:04Z) - X-MAN: Explaining multiple sources of anomalies in video [25.929134751869032]
ビデオ中の異常を検出するのに適した解釈可能な特徴表現を構築する方法を示す。
また,その応答の背後にある理由を記述可能な,解釈可能な確率的異常検出器を提案する。
提案手法は,公開データセット上の技術状況とよく競合する。
論文 参考訳(メタデータ) (2021-06-16T15:25:50Z) - A New Score for Adaptive Tests in Bayesian and Credal Networks [64.80185026979883]
テストは、そのシークエンスと質問数とが、テイカーの推定スキルに基づいて動的に調整されるときに適応する。
後部確率のモードに基づいて、別のスコアの族を提示するので、説明し易い。
論文 参考訳(メタデータ) (2021-05-25T20:35:42Z) - Challenging common interpretability assumptions in feature attribution
explanations [0.0]
大規模な人・物体実験により,3つの共通解釈可能性仮定の妥当性を実証的に評価した。
特徴帰属の説明は、人間の意思決定者にとって、我々のタスクに限界効用をもたらす。
論文 参考訳(メタデータ) (2020-12-04T17:57:26Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。