論文の概要: Multimodal Detection of Fake Reviews using BERT and ResNet-50
- arxiv url: http://arxiv.org/abs/2511.00020v1
- Date: Fri, 24 Oct 2025 01:24:53 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-09 16:58:40.03206
- Title: Multimodal Detection of Fake Reviews using BERT and ResNet-50
- Title(参考訳): BERTとResNet-50を用いたフェイクレビューのマルチモーダル検出
- Authors: Suhasnadh Reddy Veluru, Sai Teja Erukude, Viswa Chaitanya Marella,
- Abstract要約: BERTでエンコードされたテキスト機能とResNet-50を用いて抽出された視覚機能を統合した,堅牢なマルチモーダルフェイクレビュー検出フレームワークを提案する。
実験結果から,マルチモーダルモデルは単調なベースラインよりも優れており,F1スコアが0.934であることが確認された。
本研究は,デジタル信頼の保護におけるマルチモーダル学習の重要性を実証し,コンテンツモデレーションにスケーラブルなソリューションを提供する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In the current digital commerce landscape, user-generated reviews play a critical role in shaping consumer behavior, product reputation, and platform credibility. However, the proliferation of fake or misleading reviews often generated by bots, paid agents, or AI models poses a significant threat to trust and transparency within review ecosystems. Existing detection models primarily rely on unimodal, typically textual, data and therefore fail to capture semantic inconsistencies across different modalities. To address this gap, a robust multimodal fake review detection framework is proposed, integrating textual features encoded with BERT and visual features extracted using ResNet-50. These representations are fused through a classification head to jointly predict review authenticity. To support this approach, a curated dataset comprising 21,142 user-uploaded images across food delivery, hospitality, and e-commerce domains was utilized. Experimental results indicate that the multimodal model outperforms unimodal baselines, achieving an F1-score of 0.934 on the test set. Additionally, the confusion matrix and qualitative analysis highlight the model's ability to detect subtle inconsistencies, such as exaggerated textual praise paired with unrelated or low-quality images, commonly found in deceptive content. This study demonstrates the critical role of multimodal learning in safeguarding digital trust and offers a scalable solution for content moderation across various online platforms.
- Abstract(参考訳): 現在のデジタルコマースの世界では、ユーザ生成レビューは消費者の行動、製品の評判、プラットフォームの信頼性を形作る上で重要な役割を担っている。
しかし、ボット、有給エージェント、AIモデルによってしばしば発生する偽レビューや誤解を招くレビューの拡散は、レビューエコシステム内の信頼と透明性に対する重大な脅威となる。
既存の検出モデルは、典型的にはテキストデータであるunimodalに依存しているため、異なるモダリティのセマンティックな不整合を捉えることができない。
このギャップに対処するために、BERTでエンコードされたテキスト機能とResNet-50を用いて抽出された視覚機能を統合する、堅牢なマルチモーダルフェイクレビュー検出フレームワークを提案する。
これらの表現は分類ヘッドを通して融合され、レビューの信頼性を共同で予測する。
このアプローチを支援するために,21,142枚のユーザアップロード画像からなるキュレートデータセットを,食品デリバリー,ホスピタリティ,電子商取引ドメインに利用した。
実験結果から,マルチモーダルモデルは単調なベースラインよりも優れており,F1スコアが0.934であることが確認された。
さらに、混乱行列と定性的分析は、非関連または低品質な画像と組み合わせた誇張されたテキストの賞賛のような微妙な矛盾を検知するモデルの能力を強調している。
本研究は、デジタル信頼の保護におけるマルチモーダル学習の重要性を実証し、様々なオンラインプラットフォームにおけるコンテンツモデレーションのためのスケーラブルなソリューションを提供する。
関連論文リスト
- Towards Unified Multimodal Misinformation Detection in Social Media: A Benchmark Dataset and Baseline [56.790045049514326]
詐欺の2つの主要な形態は、人造誤報とAI生成コンテンツである。
両形態の偽造を扱うためのフレームワークであるUMFDet(Unified Multimodal Fake Content Detection)を提案する。
UMFDetは、両方の誤情報型に対して堅牢で一貫したパフォーマンスを実現し、特殊ベースラインを上回っている。
論文 参考訳(メタデータ) (2025-09-30T09:26:32Z) - EVADE: Multimodal Benchmark for Evasive Content Detection in E-Commerce Applications [24.832537917472894]
EVADEは、eコマースにおける回避コンテンツ検出の基礎モデルを評価するために設計された、最初の専門家による、中国のマルチモーダルベンチマークである。
データセットには、2,833の注釈付きテキストサンプルと、6つの要求のある製品カテゴリにまたがる13,961のイメージが含まれている。
論文 参考訳(メタデータ) (2025-05-23T09:18:01Z) - Consistency-aware Fake Videos Detection on Short Video Platforms [4.291448222735821]
本稿では,ショートビデオプラットフォーム上でのフェイクニュースの検出に焦点をあてる。
既存のアプローチは通常、分類層を適用する前に生のビデオデータとメタデータの入力を組み合わせる。
この知見に触発された本研究では,クロスモーダルな矛盾を明示的に識別し,活用する新たな検出パラダイムを提案する。
論文 参考訳(メタデータ) (2025-04-30T10:26:04Z) - On the Fairness, Diversity and Reliability of Text-to-Image Generative Models [68.62012304574012]
マルチモーダル生成モデルは 信頼性 公正性 誤用の可能性について 批判的な議論を巻き起こしました
埋め込み空間におけるグローバルおよびローカルな摂動に対する応答を解析し、モデルの信頼性を評価するための評価フレームワークを提案する。
提案手法は, 信頼できない, バイアス注入されたモデルを検出し, 組込みバイアスの証明をトレースするための基礎となる。
論文 参考訳(メタデータ) (2024-11-21T09:46:55Z) - AiGen-FoodReview: A Multimodal Dataset of Machine-Generated Restaurant
Reviews and Images on Social Media [57.70351255180495]
AiGen-FoodReviewは、20,144のレストランレビューイメージペアからなるデータセットである。
FLAVAで99.80%のマルチモーダル精度を達成し,一様・多モーダル検出モデルについて検討する。
この論文は、データセットをオープンソース化し、偽レビュー検出装置を公開し、非モーダルかつマルチモーダルな偽レビュー検出タスクでの使用を推奨し、合成データと真正データにおける言語的特徴と視覚的特徴を評価することで貢献する。
論文 参考訳(メタデータ) (2024-01-16T20:57:36Z) - Towards General Visual-Linguistic Face Forgery Detection [95.73987327101143]
ディープフェイクは現実的な顔操作であり、セキュリティ、プライバシー、信頼に深刻な脅威をもたらす可能性がある。
既存の方法は、このタスクを、デジタルラベルまたはマスク信号を使用して検出モデルをトレーニングするバイナリ分類として扱う。
本稿では, 微粒な文レベルのプロンプトをアノテーションとして用いた, VLFFD (Visual-Linguistic Face Forgery Detection) という新しいパラダイムを提案する。
論文 参考訳(メタデータ) (2023-07-31T10:22:33Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。