論文の概要: AI Credibility Signals Outrank Institutions and Engagement in Shaping News Perception on Social Media
- arxiv url: http://arxiv.org/abs/2511.02370v1
- Date: Tue, 04 Nov 2025 08:46:54 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-05 18:47:05.858033
- Title: AI Credibility Signals Outrank Institutions and Engagement in Shaping News Perception on Social Media
- Title(参考訳): AIの信頼性は、ソーシャルメディア上のニュースパーセプションを形作るための制度とエンゲージメントを損なう
- Authors: Adnan Hoq, Matthew Facciani, Tim Weninger,
- Abstract要約: 本稿では,AIが生み出す信頼性スコアがユーザの政治的ニュースに対する認識にどのように影響するかを,大規模に混合設計実験により検証する。
その結果、AIフィードバックは党派偏見や制度的不信を著しく抑制し、好きや共有といった従来のエンゲージメントシグナルをはるかに上回っていることが明らかとなった。
- 参考スコア(独自算出の注目度): 4.197003225775791
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: AI-generated content is rapidly becoming a salient component of online information ecosystems, yet its influence on public trust and epistemic judgments remains poorly understood. We present a large-scale mixed-design experiment (N = 1,000) investigating how AI-generated credibility scores affect user perception of political news. Our results reveal that AI feedback significantly moderates partisan bias and institutional distrust, surpassing traditional engagement signals such as likes and shares. These findings demonstrate the persuasive power of generative AI and suggest a need for design strategies that balance epistemic influence with user autonomy.
- Abstract(参考訳): AI生成コンテンツは、急速にオンライン情報エコシステムの健全なコンポーネントになりつつあるが、その公的な信頼と疫学的な判断に対する影響は、いまだに理解されていない。
我々は,AIによる信頼性スコアがユーザの政治的ニュースに対する認識にどのように影響するかを,大規模な複合設計実験(N = 1,000)で検証する。
その結果、AIフィードバックは党派偏見や制度的不信を著しく抑制し、好きや共有といった従来のエンゲージメントシグナルをはるかに上回っていることが明らかとなった。
これらの知見は、生成的AIの説得力を示し、ユーザの自律性と認識的影響のバランスをとるデザイン戦略の必要性を示唆している。
関連論文リスト
- Preliminary Quantitative Study on Explainability and Trust in AI Systems [0.0]
GPT-4のような大規模AIモデルは、法律、医療、金融といった重要な領域にまたがる人工知能の展開を加速している。
本研究では,定量的な実験設計を通じて,AIシステムにおける説明可能性とユーザ信頼の関係について検討する。
論文 参考訳(メタデータ) (2025-10-17T15:59:28Z) - AI Feedback Enhances Community-Based Content Moderation through Engagement with Counterarguments [0.0]
本研究は,AIを用いたハイブリット・モデレーション・フレームワークについて検討した。
その結果,フィードバックを取り入れることで音質が向上することがわかった。
この研究は、政治コンテンツモデレーションにおけるAIの役割に関する継続的な議論に寄与している。
論文 参考訳(メタデータ) (2025-07-10T18:52:50Z) - Biased AI can Influence Political Decision-Making [64.9461133083473]
本稿では,大言語モデル(LLM)におけるパルチザンバイアスが政治的意見や意思決定に与える影響について検討する。
その結果,党派偏見モデルに曝露した参加者は,LLMの偏見と一致した意見を取り入れ,決定を下す可能性が有意に高いことがわかった。
論文 参考訳(メタデータ) (2024-10-08T22:56:00Z) - Particip-AI: A Democratic Surveying Framework for Anticipating Future AI Use Cases, Harms and Benefits [54.648819983899614]
汎用AIは、一般大衆がAIを使用してそのパワーを利用するための障壁を下げたようだ。
本稿では,AI利用事例とその影響を推測し,評価するためのフレームワークであるPartICIP-AIを紹介する。
論文 参考訳(メタデータ) (2024-03-21T19:12:37Z) - Fairness in AI and Its Long-Term Implications on Society [68.8204255655161]
AIフェアネスを詳しく見て、AIフェアネスの欠如が、時間の経過とともにバイアスの深化につながるかを分析します。
偏りのあるモデルが特定のグループに対してよりネガティブな現実的な結果をもたらすかについて議論する。
問題が続くと、他のリスクとの相互作用によって強化され、社会不安という形で社会に深刻な影響を及ぼす可能性がある。
論文 参考訳(メタデータ) (2023-04-16T11:22:59Z) - Fairness And Bias in Artificial Intelligence: A Brief Survey of Sources,
Impacts, And Mitigation Strategies [11.323961700172175]
この調査論文は、AIの公平性とバイアスに関する簡潔で包括的な概要を提供する。
我々は、データ、アルゴリズム、人間の決定バイアスなどのバイアス源をレビューする。
偏りのあるAIシステムの社会的影響を評価し,不平等の持続性と有害なステレオタイプの強化に着目した。
論文 参考訳(メタデータ) (2023-04-16T03:23:55Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。