論文の概要: Large Language Models as 'Hidden Persuaders': Fake Product Reviews are Indistinguishable to Humans and Machines
- arxiv url: http://arxiv.org/abs/2506.13313v1
- Date: Mon, 16 Jun 2025 09:54:56 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-17 17:28:48.084265
- Title: Large Language Models as 'Hidden Persuaders': Fake Product Reviews are Indistinguishable to Humans and Machines
- Title(参考訳): 隠れた説得者」としての大規模言語モデル:偽商品レビューは人間や機械と区別がつかない
- Authors: Weiyao Meng, John Harvey, James Goulding, Chris James Carter, Evgeniya Lukinova, Andrew Smith, Paul Frobisher, Mina Forrest, Georgiana Nica-Avram,
- Abstract要約: 3つの研究によると、人間は機械によって生成された実際の製品レビューと偽の製品レビューを区別できなくなった。
その結果, 信頼性の高い購入検証に頼らなければ, 至るところのレビューシステムは, 不正行為の機械化の影響を受けやすいことが明らかとなった。
- 参考スコア(独自算出の注目度): 1.857435854150621
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Reading and evaluating product reviews is central to how most people decide what to buy and consume online. However, the recent emergence of Large Language Models and Generative Artificial Intelligence now means writing fraudulent or fake reviews is potentially easier than ever. Through three studies we demonstrate that (1) humans are no longer able to distinguish between real and fake product reviews generated by machines, averaging only 50.8% accuracy overall - essentially the same that would be expected by chance alone; (2) that LLMs are likewise unable to distinguish between fake and real reviews and perform equivalently bad or even worse than humans; and (3) that humans and LLMs pursue different strategies for evaluating authenticity which lead to equivalently bad accuracy, but different precision, recall and F1 scores - indicating they perform worse at different aspects of judgment. The results reveal that review systems everywhere are now susceptible to mechanised fraud if they do not depend on trustworthy purchase verification to guarantee the authenticity of reviewers. Furthermore, the results provide insight into the consumer psychology of how humans judge authenticity, demonstrating there is an inherent 'scepticism bias' towards positive reviews and a special vulnerability to misjudge the authenticity of fake negative reviews. Additionally, results provide a first insight into the 'machine psychology' of judging fake reviews, revealing that the strategies LLMs take to evaluate authenticity radically differ from humans, in ways that are equally wrong in terms of accuracy, but different in their misjudgments.
- Abstract(参考訳): 製品レビューを読み、評価することは、オンラインで何を購入し、消費するかを決める方法の中心である。
しかし、近年のLarge Language ModelsとGenerative Artificial Intelligenceの出現は、不正レビューや偽レビューを書くことが、これまで以上に容易になったことを意味している。
3つの研究を通して、(1)人間は機械によって生成された実物レビューと偽物レビューを区別できなくなり、平均して50.8%の精度しか期待できないこと、(2)LLMは偽物レビューと実物レビューを区別できないこと、(3)人間とLLMは同等に悪いか悪いかを評価するための異なる戦略を追求していること、そして、同等に悪い精度をもたらすが、異なる精度、リコール、F1スコアを示す。
その結果, レビューシステムは, 信頼に値する購入検証に頼らず, レビュー担当者の信頼性を保証できなければ, 機械化詐欺の影響を受けやすいことが明らかとなった。
さらに, 消費者心理学において, 肯定的レビューに固有の「知覚バイアス」が存在すること, 偽否定的レビューの真偽を誤認する特殊な脆弱性が示された。
さらに、結果は偽レビューを判断する「機械心理学」に関する最初の洞察を与え、LLMが真正性を評価する戦略が人間と根本的に異なることを明らかにした。
関連論文リスト
- Are We There Yet? Revealing the Risks of Utilizing Large Language Models in Scholarly Peer Review [66.73247554182376]
大規模言語モデル(LLM)がピアレビューに統合された。
未確認のLLMの採用は、ピアレビューシステムの完全性に重大なリスクをもたらす。
5%のレビューを操作すれば、論文の12%が上位30%のランキングでその地位を失う可能性がある。
論文 参考訳(メタデータ) (2024-12-02T16:55:03Z) - Unmasking Illusions: Understanding Human Perception of Audiovisual Deepfakes [49.81915942821647]
本研究は,ディープフェイク映像を主観的研究により識別する人間の能力を評価することを目的とする。
人間の観察者を5つの最先端オーディオ視覚深度検出モデルと比較することにより,その知見を提示する。
同じ40の動画で評価すると、すべてのAIモデルは人間より優れていることが分かりました。
論文 参考訳(メタデータ) (2024-05-07T07:57:15Z) - MAiDE-up: Multilingual Deception Detection of GPT-generated Hotel Reviews [29.174548645439756]
私たちは、AIが生成した偽のホテルレビュー1万件からなるMAiDE-upデータセットを公開しています。
我々は、AIの偽ホテルレビューと実際のホテルレビューを比較するために、広範な言語学的分析を行う。
これらの次元は、AIが生成した偽レビューをいかに検出できるかに影響を及ぼす。
論文 参考訳(メタデータ) (2024-04-19T15:08:06Z) - Unmasking Falsehoods in Reviews: An Exploration of NLP Techniques [0.0]
本研究は,誤認レビューを識別する機械学習モデルを提案する。
これを実現するために,n-gramモデルと最大特徴量を開発し,認識内容を効果的に同定する。
実験結果から,パッシブ・アグレッシブ・クラシファイアは様々なアルゴリズムにおいて顕著であることがわかった。
論文 参考訳(メタデータ) (2023-07-20T06:35:43Z) - Combat AI With AI: Counteract Machine-Generated Fake Restaurant Reviews
on Social Media [77.34726150561087]
我々は、高品質なYelpレビューを活用して、OpenAI GPTレビュー作成者から偽レビューを生成することを提案する。
このモデルを適用して、非エリートレビューを予測し、複数の次元にまたがるパターンを識別する。
ソーシャルメディアプラットフォームは、マシン生成の偽レビューによって継続的に挑戦されていることを示す。
論文 参考訳(メタデータ) (2023-02-10T19:40:10Z) - Online Fake Review Detection Using Supervised Machine Learning And BERT
Model [0.0]
テキストから単語の埋め込みを抽出するためにBERT(Bidirectional Representation from Transformers)モデルを提案する(レビュー)。
その結果、SVM分類器は精度で他より優れており、f1スコアは精度87.81%であることがわかった。
論文 参考訳(メタデータ) (2023-01-09T09:40:56Z) - Fake or Genuine? Contextualised Text Representation for Fake Review
Detection [0.4724825031148411]
本稿では, トランスフォーマーアーキテクチャを用いて, 偽レビューのシーケンス中に隠されたパターンを発見し, 正確に検出する新しいアンサンブルモデルを提案する。
半現実的なベンチマークデータセットを用いた実験結果から,提案モデルが最先端モデルよりも優れていることが示された。
論文 参考訳(メタデータ) (2021-12-29T00:54:47Z) - Fake Reviews Detection through Analysis of Linguistic Features [1.609940380983903]
本稿では,偽レビューを識別するための自然言語処理手法について検討する。
ニセモノと信頼できるオンラインレビューを区別するために,15の言語的特徴について検討した。
これらの言語的特徴を用いて,実際のレビューから偽の識別を高精度に行うことができた。
論文 参考訳(メタデータ) (2020-10-08T21:16:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。