論文の概要: Identifying Hijacked Reviews
- arxiv url: http://arxiv.org/abs/2107.05385v1
- Date: Wed, 7 Jul 2021 20:43:36 GMT
- ステータス: 処理完了
- システム内更新日: 2021-07-18 12:35:39.649839
- Title: Identifying Hijacked Reviews
- Title(参考訳): ハイジャックされたレビューの特定
- Authors: Monika Daryani and James Caverlee
- Abstract要約: レビュー・ヒジャック(英: Review Hijacking)は、非倫理的な販売者が既存の製品ページを「ヒジャック」する新しいレビュー操作戦略である。
商品とレビューを交換することで、ハイジャックのレビューを行うための、合成ラベル付きデータを生成するフレームワークを提案する。
次に、ツインLSTMネットワークとBERTシークエンスペアの2つの可能性を評価し、このデータを用いてハイジャックされたものとの正当性レビューを区別する。
- 参考スコア(独自算出の注目度): 21.600163117735857
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Fake reviews and review manipulation are growing problems on online
marketplaces globally. Review Hijacking is a new review manipulation tactic in
which unethical sellers "hijack" an existing product page (usually one with
many positive reviews), then update the product details like title, photo, and
description with those of an entirely different product. With the earlier
reviews still attached, the new item appears well-reviewed. However, there are
no public datasets of review hijacking and little is known in the literature
about this tactic. Hence, this paper proposes a three-part study: (i) we
propose a framework to generate synthetically labeled data for review hijacking
by swapping products and reviews; (ii) then, we evaluate the potential of both
a Twin LSTM network and BERT sequence pair classifier to distinguish legitimate
reviews from hijacked ones using this data; and (iii) we then deploy the best
performing model on a collection of 31K products (with 6.5 M reviews) in the
original data, where we find 100s of previously unknown examples of review
hijacking.
- Abstract(参考訳): 偽レビューとレビュー操作は、世界中のオンラインマーケットプレースで問題になりつつある。
レビューハイジャック(review hijacking)は、非倫理的な売り手が既存の製品ページを「ハイジャック(hijack)」し、タイトル、写真、説明などの製品の詳細を全く異なる製品で更新する、新しいレビュー操作手法である。
以前のレビューがまだ添付されているので、新しいアイテムは見栄えが良く見える。
しかし、レビューハイジャックの公開データセットはなく、この戦術に関する文献ではほとんど知られていない。
Hence, this paper proposes a three-part study: (i) we propose a framework to generate synthetically labeled data for review hijacking by swapping products and reviews; (ii) then, we evaluate the potential of both a Twin LSTM network and BERT sequence pair classifier to distinguish legitimate reviews from hijacked ones using this data; and (iii) we then deploy the best performing model on a collection of 31K products (with 6.5 M reviews) in the original data, where we find 100s of previously unknown examples of review hijacking.
関連論文リスト
- What Matters in Explanations: Towards Explainable Fake Review Detection Focusing on Transformers [45.55363754551388]
顧客のレビューとフィードバックは、Amazon、Zalando、eBayなどのEコマースプラットフォームにおいて重要な役割を果たす。
売り手が偽レビューやスパムレビューを投稿し、潜在的な顧客を欺き、製品に関する意見を操作しているという懸念が有力である。
本稿では,偽レビューを高精度に検出するための説明可能なフレームワークを提案する。
論文 参考訳(メタデータ) (2024-07-24T13:26:02Z) - Enhanced Review Detection and Recognition: A Platform-Agnostic Approach with Application to Online Commerce [0.46040036610482665]
本稿では,検出・抽出のための機械学習手法を提案する。
トレーニングデータに含まれていないウェブサイトにまたがって使用するために一般化されていることを実証する。
この方法は、ソースに関係なく、レビューの自動検出と評価のためにアプリケーションを駆動することを約束する。
論文 参考訳(メタデータ) (2024-05-09T00:32:22Z) - Combat AI With AI: Counteract Machine-Generated Fake Restaurant Reviews
on Social Media [77.34726150561087]
我々は、高品質なYelpレビューを活用して、OpenAI GPTレビュー作成者から偽レビューを生成することを提案する。
このモデルを適用して、非エリートレビューを予測し、複数の次元にまたがるパターンを識別する。
ソーシャルメディアプラットフォームは、マシン生成の偽レビューによって継続的に挑戦されていることを示す。
論文 参考訳(メタデータ) (2023-02-10T19:40:10Z) - Towards Personalized Review Summarization by Modeling Historical Reviews
from Customer and Product Separately [59.61932899841944]
レビュー要約(review summarization)は、Eコマースのウェブサイトで製品レビューのメインの考え方を要約することを目的とした、簡単ではないタスクである。
Heterogeneous Historical Review aware Review Summarization Model (HHRRS)を提案する。
我々は、レビュー感情分類と要約を共同で行うマルチタスクフレームワークを採用している。
論文 参考訳(メタデータ) (2023-01-27T12:32:55Z) - Detecting Spam Reviews on Vietnamese E-commerce Websites [0.0]
本稿では,電子商取引プラットフォーム上でのスパムレビューを検出するための厳格なアノテーション手順を有するViSpamReviewsというデータセットを提案する。
本データセットは,レビューがスパムか否かを検出するバイナリ分類タスクと,スパムの種類を特定するマルチクラス分類タスクの2つのタスクから構成される。
PhoBERTは、マクロ平均F1スコアでそれぞれ88.93%と72.17%の2つのタスクで最高結果を得た。
論文 参考訳(メタデータ) (2022-07-27T10:37:14Z) - Attention-based Bidirectional LSTM for Deceptive Opinion Spam
Classification [0.0]
不正なレビューは様々なオンラインレビュープラットフォームに意図的に投稿され、顧客が商品やレストランを購入したり、訪ねたり、気を散らすのを手伝う。
この研究は、レビューを偽りまたは真偽として検出し分類することを目的としている。
これには、レビューの分類と提案されたアプローチの概要のための様々なディープラーニング技術の使用が含まれる。
論文 参考訳(メタデータ) (2021-12-29T19:02:04Z) - Can We Automate Scientific Reviewing? [89.50052670307434]
我々は、最先端自然言語処理(NLP)モデルを用いて、科学論文の第一パスピアレビューを生成する可能性について論じる。
我々は、機械学習領域で論文のデータセットを収集し、各レビューでカバーされているさまざまなコンテンツに注釈を付け、レビューを生成するために論文を取り込み、ターゲットの要約モデルを訓練する。
総合的な実験結果から、システム生成レビューは、人間によるレビューよりも、論文の多くの側面に触れる傾向にあることが示された。
論文 参考訳(メタデータ) (2021-01-30T07:16:53Z) - DFraud3- Multi-Component Fraud Detection freeof Cold-start [50.779498955162644]
コールドスタート(Cold-start)は、新しいユーザの認証に検出システムが失敗したことを指す重要な問題である。
本稿では,各コンポーネントに固有の表現を可能にする異種情報ネットワーク (HIN) としてレビューシステムをモデル化する。
HINとグラフ誘導はカモフラージュ問題(本物のレビュー付き詐欺師)に対処するのに役立ち、これはコールドスタートと組み合わされた場合、すなわち真に最初のレビューを持つ新しい詐欺師がより深刻であることが示されている。
論文 参考訳(メタデータ) (2020-06-10T08:20:13Z) - Context-aware Helpfulness Prediction for Online Product Reviews [34.47368084659301]
本稿では,レビューの有用性を評価するニューラルディープ・ラーニング・モデルを提案する。
このモデルは畳み込みニューラルネットワーク(CNN)とコンテキスト認識符号化機構に基づいている。
我々は、人間の注釈付きデータセット上でモデルを検証し、その結果、既存のモデルよりも有益性予測に優れていたことを示す。
論文 参考訳(メタデータ) (2020-04-27T18:19:26Z) - Unsupervised Opinion Summarization with Noising and Denoising [85.49169453434554]
ユーザレビューのコーパスから合成データセットを作成し、レビューをサンプリングし、要約のふりをして、ノイズのあるバージョンを生成します。
テスト時に、モデルは本物のレビューを受け入れ、健全な意見を含む要約を生成し、合意に達しないものをノイズとして扱います。
論文 参考訳(メタデータ) (2020-04-21T16:54:57Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。