論文の概要: AI labeling reduces the perceived accuracy of online content but has limited broader effects
- arxiv url: http://arxiv.org/abs/2506.16202v1
- Date: Thu, 19 Jun 2025 10:32:52 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-23 19:00:05.03478
- Title: AI labeling reduces the perceived accuracy of online content but has limited broader effects
- Title(参考訳): AIラベリングはオンラインコンテンツの精度を低下させるが、効果は限定的
- Authors: Chuyao Wang, Patrick Sturgis, Daniel de Kadt,
- Abstract要約: 提案する公開ポリシーに関するニュース記事の明示的なAIラベル付けは,その認識精度を低下させることを示す。
AIラベリングはポリシーへの関心を減少させるが、ポリシーへの支持に影響せず、オンラインの誤情報に対する一般的な懸念も引き起こさない。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Explicit labeling of online content produced by artificial intelligence (AI) is a widely mooted policy for ensuring transparency and promoting public confidence. Yet little is known about the scope of AI labeling effects on public assessments of labeled content. We contribute new evidence on this question from a survey experiment using a high-quality nationally representative probability sample (n = 3,861). First, we demonstrate that explicit AI labeling of a news article about a proposed public policy reduces its perceived accuracy. Second, we test whether there are spillover effects in terms of policy interest, policy support, and general concerns about online misinformation. We find that AI labeling reduces interest in the policy, but neither influences support for the policy nor triggers general concerns about online misinformation. We further find that increasing the salience of AI use reduces the negative impact of AI labeling on perceived accuracy, while one-sided versus two-sided framing of the policy has no moderating effect. Overall, our findings suggest that the effects of algorithm aversion induced by AI labeling of online content are limited in scope.
- Abstract(参考訳): 人工知能(AI)が生み出すオンラインコンテンツの明示的なラベル付けは、透明性を確保し、大衆の信頼を促進するために広く取り組まれているポリシーである。
しかし、ラベル付きコンテンツの公開評価にAIラベルが与える影響についてはほとんど分かっていない。
我々は,高品質な全国代表確率サンプル(n = 3,861)を用いた調査実験から,この問題に関する新たな証拠を提出する。
まず、提案された公開ポリシーに関するニュース記事の明示的なAIラベルが、その認識精度を低下させることを示す。
第2に、政策関心、政策支援、およびオンライン誤報に関する一般的な懸念の点において、流出効果があるかどうかを検証する。
AIラベリングはポリシーへの関心を減少させるが、ポリシーへの支持に影響せず、オンラインの誤情報に対する一般的な懸念も引き起こさない。
さらに、AI使用のサリエンスの増加は、AIラベルの認識精度に対する悪影響を減少させるが、一方のフレーミングと一方のフレーミングはモデレーション効果がない。
全体として,オンラインコンテンツのAIラベル付けによるアルゴリズムの逆転の影響は限定的であることが示唆された。
関連論文リスト
- Security Benefits and Side Effects of Labeling AI-Generated Images [27.771584371064968]
ラベルの意味について検討し,誤ラベルの可能性についても検討した。
我々は1300人以上の米国とEU参加者による事前登録されたオンライン調査を実施している。
我々は,不正確な主張を伝達する人造画像がラベルの存在下でより信頼性が高いと認識されるという,望ましくない副作用を見出した。
論文 参考訳(メタデータ) (2025-05-28T20:24:45Z) - Labeling Messages as AI-Generated Does Not Reduce Their Persuasive Effects [33.16943695290958]
1つの顕著なポリシー提案は、透明性を高め、情報に対する批判的思考を促進するために、AI生成コンテンツを明示的にラベル付けすることである。
我々は多種多様なアメリカ人を対象に調査実験を行った。
その結果、メッセージは一般的に説得力があり、参加者の政策に対する見解に平均9.74ポイント影響を及ぼすことがわかった。
論文 参考訳(メタデータ) (2025-04-14T04:22:39Z) - Artificial Intelligence in Deliberation: The AI Penalty and the Emergence of a New Deliberative Divide [0.0]
デジタル審議は民主的参加を拡大したが、課題は残る。
人工知能(AI)の最近の進歩は潜在的な解決策を提供するが、熟考におけるAIの役割に対する大衆の認識はいまだに過小評価されている。
AIが熟考、公的な信頼、受け入れ、参加意欲に統合される場合、影響される可能性がある。
論文 参考訳(メタデータ) (2025-03-10T16:33:15Z) - Almost AI, Almost Human: The Challenge of Detecting AI-Polished Writing [55.2480439325792]
本研究では、AI-Polished-Text Evaluationデータセットを用いて、12の最先端AIテキスト検出器を体系的に評価する。
我々の発見によると、検出器は、最小限に洗練されたテキストをAI生成としてフラグ付けし、AIの関与度を区別し、古いモデルや小さなモデルに対するバイアスを示す。
論文 参考訳(メタデータ) (2025-02-21T18:45:37Z) - On the Use of Proxies in Political Ad Targeting [49.61009579554272]
我々は、主要な政治広告主がプロキシ属性をターゲットとして緩和を回避したことを示す。
本研究は政治広告の規制に関する議論に重要な意味を持つ。
論文 参考訳(メタデータ) (2024-10-18T17:15:13Z) - Biased AI can Influence Political Decision-Making [64.9461133083473]
本稿では,大言語モデル(LLM)におけるパルチザンバイアスが政治的意見や意思決定に与える影響について検討する。
その結果,党派偏見モデルに曝露した参加者は,LLMの偏見と一致した意見を取り入れ,決定を下す可能性が有意に高いことがわかった。
論文 参考訳(メタデータ) (2024-10-08T22:56:00Z) - Artificial Intelligence in Election Campaigns: Perceptions, Penalties, and Implications [44.99833362998488]
AI利用の3つのカテゴリ – キャンペーンオペレーション,投票者アウトリーチ,詐欺 – を特定します。
人々は一般的に、キャンペーンでAIを嫌うが、特に詐欺的使用には批判的であり、彼らは標準違反として認識している。
騙しAIの使用は、AI開発を完全に禁止することを含む、より厳格なAI規制に対する公的なサポートを増加させる。
論文 参考訳(メタデータ) (2024-08-08T12:58:20Z) - Fairness in AI and Its Long-Term Implications on Society [68.8204255655161]
AIフェアネスを詳しく見て、AIフェアネスの欠如が、時間の経過とともにバイアスの深化につながるかを分析します。
偏りのあるモデルが特定のグループに対してよりネガティブな現実的な結果をもたらすかについて議論する。
問題が続くと、他のリスクとの相互作用によって強化され、社会不安という形で社会に深刻な影響を及ぼす可能性がある。
論文 参考訳(メタデータ) (2023-04-16T11:22:59Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。