論文の概要: MAiDE-up: Multilingual Deception Detection of GPT-generated Hotel Reviews
- arxiv url: http://arxiv.org/abs/2404.12938v2
- Date: Wed, 19 Jun 2024 03:34:42 GMT
- ステータス: 処理完了
- システム内更新日: 2024-06-22 04:18:42.172965
- Title: MAiDE-up: Multilingual Deception Detection of GPT-generated Hotel Reviews
- Title(参考訳): MAiDE-up:GPT生成ホテルレビューの多言語誤り検出
- Authors: Oana Ignat, Xiaomeng Xu, Rada Mihalcea,
- Abstract要約: 私たちは、AIが生成した偽のホテルレビュー1万件からなるMAiDE-upデータセットを公開しています。
我々は、AIの偽ホテルレビューと実際のホテルレビューを比較するために、広範な言語学的分析を行う。
これらの次元は、AIが生成した偽レビューをいかに検出できるかに影響を及ぼす。
- 参考スコア(独自算出の注目度): 29.174548645439756
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Deceptive reviews are becoming increasingly common, especially given the increase in performance and the prevalence of LLMs. While work to date has addressed the development of models to differentiate between truthful and deceptive human reviews, much less is known about the distinction between real reviews and AI-authored fake reviews. Moreover, most of the research so far has focused primarily on English, with very little work dedicated to other languages. In this paper, we compile and make publicly available the MAiDE-up dataset, consisting of 10,000 real and 10,000 AI-generated fake hotel reviews, balanced across ten languages. Using this dataset, we conduct extensive linguistic analyses to (1) compare the AI fake hotel reviews to real hotel reviews, and (2) identify the factors that influence the deception detection model performance. We explore the effectiveness of several models for deception detection in hotel reviews across three main dimensions: sentiment, location, and language. We find that these dimensions influence how well we can detect AI-generated fake reviews.
- Abstract(参考訳): 認知的レビューは、特にLLMのパフォーマンス向上と普及により、ますます一般的になっている。
これまでの研究は、真実と偽りの人間レビューを区別するモデルの開発に取り組んできたが、実際のレビューとAIが作成した偽レビューの区別についてはあまり知られていない。
さらに、これまでの研究のほとんどは英語に重点を置いており、他の言語にはほとんど注力していない。
本稿では,10言語間でバランスの取れた1万のAI生成ホテルレビューと1万のAI生成ホテルレビューからなるMAiDE-upデータセットをコンパイルし,公開する。
本データセットを用いて,(1)AI偽ホテルレビューと実際のホテルレビューを比較し,(2)偽造検出モデルの性能に影響を与える要因を特定する。
ホテルレビューにおいて, 感情, 場所, 言語という3つの主要な側面にまたがって, 虚偽検出のための複数のモデルの有効性について検討した。
これらの次元は、AIが生成した偽レビューをいかに検出できるかに影響を及ぼす。
関連論文リスト
- Who Writes the Review, Human or AI? [0.36498648388765503]
本研究では,AIによる書評と人間による書評を正確に区別する手法を提案する。
提案手法は移動学習を利用して,異なるトピック間で生成したテキストを識別する。
実験の結果、元のテキストのソースを検出でき、精度96.86%に達することが示されている。
論文 参考訳(メタデータ) (2024-05-30T17:38:44Z) - ChatGPT vs Gemini vs LLaMA on Multilingual Sentiment Analysis [0.0]
我々は、曖昧で曖昧なシナリオを構築し、それらを10の言語で翻訳し、人気のあるLLMを用いてそれらの感情を予測した。
結果はポストホックヒトの反応に対して検証される。
この研究は、感情分析の自動評価のための標準化された方法論を提供する。
論文 参考訳(メタデータ) (2024-01-25T23:15:45Z) - AiGen-FoodReview: A Multimodal Dataset of Machine-Generated Restaurant
Reviews and Images on Social Media [57.70351255180495]
AiGen-FoodReviewは、20,144のレストランレビューイメージペアからなるデータセットである。
FLAVAで99.80%のマルチモーダル精度を達成し,一様・多モーダル検出モデルについて検討する。
この論文は、データセットをオープンソース化し、偽レビュー検出装置を公開し、非モーダルかつマルチモーダルな偽レビュー検出タスクでの使用を推奨し、合成データと真正データにおける言語的特徴と視覚的特徴を評価することで貢献する。
論文 参考訳(メタデータ) (2024-01-16T20:57:36Z) - UltraFeedback: Boosting Language Models with Scaled AI Feedback [99.4633351133207]
大規模で高品質で多様なAIフィードバックデータセットである textscUltraFeedback を提示する。
我々の研究は、強力なオープンソースのチャット言語モデルを構築する上で、スケールしたAIフィードバックデータの有効性を検証する。
論文 参考訳(メタデータ) (2023-10-02T17:40:01Z) - Cross-Lingual Knowledge Editing in Large Language Models [73.12622532088564]
知識編集は、スクラッチから再学習することなく、大きな言語モデルを新しい知識に適応させることが示されている。
ソース言語編集が別のターゲット言語に与える影響は、いまだ不明である。
まず、ZsREを英語から中国語に翻訳することで、大規模な言語間合成データセットを収集する。
論文 参考訳(メタデータ) (2023-09-16T11:07:52Z) - Evaluating the Effectiveness of Pre-trained Language Models in
Predicting the Helpfulness of Online Product Reviews [0.21485350418225244]
オンライン製品レビューの有用性を予測するため,RoBERTaとXLM-R言語モデルの比較を行った。
実験にはAmazonレビューデータセットを使用します。
論文 参考訳(メタデータ) (2023-02-19T18:22:59Z) - Combat AI With AI: Counteract Machine-Generated Fake Restaurant Reviews
on Social Media [77.34726150561087]
我々は、高品質なYelpレビューを活用して、OpenAI GPTレビュー作成者から偽レビューを生成することを提案する。
このモデルを適用して、非エリートレビューを予測し、複数の次元にまたがるパターンを識別する。
ソーシャルメディアプラットフォームは、マシン生成の偽レビューによって継続的に挑戦されていることを示す。
論文 参考訳(メタデータ) (2023-02-10T19:40:10Z) - Towards a Fair Comparison and Realistic Design and Evaluation Framework
of Android Malware Detectors [63.75363908696257]
一般的な評価フレームワークを用いて,Androidのマルウェア検出に関する10の研究成果を分析した。
データセットの作成やデザイナの設計に考慮しない場合、トレーニングされたMLモデルに大きく影響する5つの要因を特定します。
その結果,MLに基づく検出器は楽観的に評価され,良好な結果が得られた。
論文 参考訳(メタデータ) (2022-05-25T08:28:08Z) - Fake or Genuine? Contextualised Text Representation for Fake Review
Detection [0.4724825031148411]
本稿では, トランスフォーマーアーキテクチャを用いて, 偽レビューのシーケンス中に隠されたパターンを発見し, 正確に検出する新しいアンサンブルモデルを提案する。
半現実的なベンチマークデータセットを用いた実験結果から,提案モデルが最先端モデルよりも優れていることが示された。
論文 参考訳(メタデータ) (2021-12-29T00:54:47Z) - SIFN: A Sentiment-aware Interactive Fusion Network for Review-based Item
Recommendation [48.1799451277808]
本稿では、レビューに基づく項目推薦のための感性認識型インタラクティブフュージョンネットワーク(SIFN)を提案する。
まず、BERTを介してユーザ/イテムレビューをエンコードし、各レビューのセマンティックな特徴を抽出する軽量な感情学習者を提案する。
そこで我々は,感情学習者が明示的な感情ラベルを用いて感情認識特徴を抽出するための感情予測タスクを提案する。
論文 参考訳(メタデータ) (2021-08-18T08:04:38Z) - Fake Reviews Detection through Analysis of Linguistic Features [1.609940380983903]
本稿では,偽レビューを識別するための自然言語処理手法について検討する。
ニセモノと信頼できるオンラインレビューを区別するために,15の言語的特徴について検討した。
これらの言語的特徴を用いて,実際のレビューから偽の識別を高精度に行うことができた。
論文 参考訳(メタデータ) (2020-10-08T21:16:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。