論文の概要: A Cross-Cultural Assessment of Human Ability to Detect LLM-Generated Fake News about South Africa
- arxiv url: http://arxiv.org/abs/2511.17682v1
- Date: Fri, 21 Nov 2025 09:33:49 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-25 18:34:24.360805
- Title: A Cross-Cultural Assessment of Human Ability to Detect LLM-Generated Fake News about South Africa
- Title(参考訳): 南アフリカにおけるLCM生成フェイクニュースの検出能力のクロスカルチャー評価
- Authors: Tim Schlippe, Matthias Wölfel, Koena Ronny Mabokela,
- Abstract要約: 本研究では,文化的な近さが,AIが生成した偽ニュースを検出する能力に与える影響について検討する。
調査では、89人の参加者が真の南アフリカのニュース記事10件とAI生成の偽版10件を評価した。
- 参考スコア(独自算出の注目度): 0.9303501974597549
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This study investigates how cultural proximity affects the ability to detect AI-generated fake news by comparing South African participants with those from other nationalities. As large language models increasingly enable the creation of sophisticated fake news, understanding human detection capabilities becomes crucial, particularly across different cultural contexts. We conducted a survey where 89 participants (56 South Africans, 33 from other nationalities) evaluated 10 true South African news articles and 10 AI-generated fake versions. Results reveal an asymmetric pattern: South Africans demonstrated superior performance in detecting true news about their country (40% deviation from ideal rating) compared to other participants (52%), but performed worse at identifying fake news (62% vs. 55%). This difference may reflect South Africans' higher overall trust in news sources. Our analysis further shows that South Africans relied more on content knowledge and contextual understanding when judging credibility, while participants from other countries emphasised formal linguistic features such as grammar and structure. Overall, the deviation from ideal rating was similar between groups (51% vs. 53%), suggesting that cultural familiarity appears to aid verification of authentic information but may also introduce bias when evaluating fabricated content. These insights contribute to understanding cross-cultural dimensions of misinformation detection and inform strategies for combating AI-generated fake news in increasingly globalised information ecosystems where content crosses cultural and geographical boundaries.
- Abstract(参考訳): 本研究では,文化的な近さが,南アフリカの参加者と他国の参加者とを比較して,AIによる偽ニュースを検出する能力にどのような影響を及ぼすかを検討する。
大きな言語モデルによって、洗練されたフェイクニュースが作成されるようになるにつれて、人間の検出能力を理解することが重要となり、特に文化の異なる状況において。
調査では、89人の参加者(56人の南アフリカ人、33人の他国出身)が、真の南アフリカのニュース記事10件、AI生成のフェイクバージョン10件を評価した。
その結果、南アフリカ人は、他の参加者(52%)と比較して、自分の国に関する真のニュース(理想的な評価から40%逸脱)を検出するのに優れた性能を示したが、フェイクニュース(55%対62%)の識別では、より悪い成績を示した。
この違いは、南アフリカ人のニュースソースに対する全体的な信頼の高まりを反映している可能性がある。
分析の結果,南アフリカ人は信頼性を判断する際の内容的知識や文脈的理解に頼り,他国の参加者は文法や構造などの形式的言語的特徴を強調した。
全体として、理想的な評価からの逸脱はグループ間で類似しており(51% vs. 53%)、文化的な親しみは真偽の検証に役立つが、偽コンテンツを評価する際にも偏見をもたらす可能性があることを示唆している。
これらの洞察は、誤情報検出の文化的側面の理解に寄与し、コンテンツが文化的および地理的境界を越えている、ますますグローバル化される情報エコシステムにおいて、AI生成のフェイクニュースと戦うための情報戦略に寄与する。
関連論文リスト
- Trust in Disinformation Narratives: a Trust in the News Experiment [8.761077076556507]
本研究の目的は,ジェンダー,気候変動,CO-19VIDに基づく偽ニュース記事の信頼度を検討することである。
オンライン実験参加者は,3つの偽ニュース記事を読み,信頼度を1件(真実ではない)から8件(真実)に評価するよう求められた。
その結果、ニュース記事、スタンス、人々の年齢、性別、政治的イデオロギーの話題がニュースに対する信頼のレベルに著しく影響を与えているのに対し、著者(人間またはChatGPT)は大きな影響を与えていないことが明らかとなった。
論文 参考訳(メタデータ) (2025-03-14T06:28:22Z) - Global MMLU: Understanding and Addressing Cultural and Linguistic Biases in Multilingual Evaluation [71.59208664920452]
多言語データセットの文化的バイアスは、グローバルベンチマークとしての有効性に重大な課題をもたらす。
MMLUの進歩は西洋中心の概念の学習に大きく依存しており、文化に敏感な知識を必要とする質問の28%がそうである。
改良されたMMLUであるGlobal MMLUをリリースし,42言語を対象に評価を行った。
論文 参考訳(メタデータ) (2024-12-04T13:27:09Z) - Impact of Fake News on Social Media Towards Public Users of Different Age Groups [0.0]
本研究では,偽ニュースがソーシャルメディア利用者にどのような影響を及ぼすかを検討した。
偽ニュースの識別・分類における機械学習モデルの有効性について検討した。
論文 参考訳(メタデータ) (2024-11-08T15:32:20Z) - CulturalBench: A Robust, Diverse, and Challenging Cultural Benchmark by Human-AI CulturalTeaming [75.82306181299153]
カルチャーベンチ(CulturalBench)は、LMの文化的知識を評価するための1,696の人文・人文的な質問である。
バングラデシュ、ジンバブエ、ペルーなど45の地域をカバーしている。
我々はHuman-AI Red-Teamingにインスパイアされた手法を用いてCulturalBenchを構築した。
論文 参考訳(メタデータ) (2024-10-03T17:04:31Z) - Massively Multi-Cultural Knowledge Acquisition & LM Benchmarking [48.21982147529661]
本稿では,多文化知識獲得のための新しいアプローチを提案する。
本手法は,文化トピックに関するウィキペディア文書からリンクページの広範囲なネットワークへ戦略的にナビゲートする。
私たちの仕事は、AIにおける文化的格差のギャップを深く理解し、橋渡しするための重要なステップです。
論文 参考訳(メタデータ) (2024-02-14T18:16:54Z) - Exploring Cross-Cultural Differences in English Hate Speech Annotations: From Dataset Construction to Analysis [44.17106903728264]
ほとんどのヘイトスピーチデータセットは、単一の言語における文化的多様性を無視している。
そこで本研究では,CRoss文化の英語Hate音声データセットであるCREHateを紹介する。
CREHateのポストの56.2%のみが全国でコンセンサスを達成しており、ペアのラベル差が最も高いのは26%である。
論文 参考訳(メタデータ) (2023-08-31T13:14:47Z) - Is it Fake? News Disinformation Detection on South African News Websites [0.015863809575305417]
自然言語処理は偽ニュースの検出に広く用いられている。
南アフリカなど、より地域的な文脈では特に問題となる。
本研究では,南アフリカのウェブサイトにおける偽ニュースの検出について調査する。
論文 参考訳(メタデータ) (2021-08-06T04:54:03Z) - Machine Learning Explanations to Prevent Overtrust in Fake News
Detection [64.46876057393703]
本研究では、ニュースレビュープラットフォームに組み込んだ説明可能なAIアシスタントが、フェイクニュースの拡散と戦う効果について検討する。
我々は、ニュースレビューと共有インターフェースを設計し、ニュース記事のデータセットを作成し、4つの解釈可能なフェイクニュース検出アルゴリズムを訓練する。
説明可能なAIシステムについてより深く理解するために、説明プロセスにおけるユーザエンゲージメント、メンタルモデル、信頼、パフォーマンス対策の相互作用について議論する。
論文 参考訳(メタデータ) (2020-07-24T05:42:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。