論文の概要: Labeling Messages as AI-Generated Does Not Reduce Their Persuasive Effects
- arxiv url: http://arxiv.org/abs/2504.09865v2
- Date: Tue, 22 Apr 2025 02:47:23 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-04-30 12:24:52.687613
- Title: Labeling Messages as AI-Generated Does Not Reduce Their Persuasive Effects
- Title(参考訳): AIが生成するメッセージのラベル付けは、その説得力を減らすものではない
- Authors: Isabel O. Gallegos, Chen Shani, Weiyan Shi, Federico Bianchi, Izzy Gainsburg, Dan Jurafsky, Robb Willer,
- Abstract要約: 1つの顕著なポリシー提案は、透明性を高め、情報に対する批判的思考を促進するために、AI生成コンテンツを明示的にラベル付けすることである。
我々は多種多様なアメリカ人を対象に調査実験を行った。
その結果、メッセージは一般的に説得力があり、参加者の政策に対する見解に平均9.74ポイント影響を及ぼすことがわかった。
- 参考スコア(独自算出の注目度): 33.16943695290958
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: As generative artificial intelligence (AI) enables the creation and dissemination of information at massive scale and speed, it is increasingly important to understand how people perceive AI-generated content. One prominent policy proposal requires explicitly labeling AI-generated content to increase transparency and encourage critical thinking about the information, but prior research has not yet tested the effects of such labels. To address this gap, we conducted a survey experiment (N=1601) on a diverse sample of Americans, presenting participants with an AI-generated message about several public policies (e.g., allowing colleges to pay student-athletes), randomly assigning whether participants were told the message was generated by (a) an expert AI model, (b) a human policy expert, or (c) no label. We found that messages were generally persuasive, influencing participants' views of the policies by 9.74 percentage points on average. However, while 94.6% of participants assigned to the AI and human label conditions believed the authorship labels, labels had no significant effects on participants' attitude change toward the policies, judgments of message accuracy, nor intentions to share the message with others. These patterns were robust across a variety of participant characteristics, including prior knowledge of the policy, prior experience with AI, political party, education level, or age. Taken together, these results imply that, while authorship labels would likely enhance transparency, they are unlikely to substantially affect the persuasiveness of the labeled content, highlighting the need for alternative strategies to address challenges posed by AI-generated information.
- Abstract(参考訳): 生成的人工知能(AI)は、大規模で高速な情報の作成と普及を可能にするため、人々がAI生成コンテンツをどう知覚するかを理解することがますます重要である。
1つの顕著な政策提案は、透明性を高め、情報に対する批判的思考を促進するために、AI生成コンテンツを明示的にラベル付けすることである。
このギャップに対処するため、我々は様々なアメリカ人を対象に調査実験(N=1601)を行い、参加者にいくつかの公開政策に関するAI生成メッセージ(例えば、大学が学生会費を支払うことができる)を提示し、参加者にメッセージが作成されたかどうかをランダムに割り当てた。
(a)専門家AIモデル
b)人間政策の専門家、又は
(c)ラベルなし。
その結果、メッセージは一般的に説得力があり、参加者の政策に対する見解に平均9.74ポイント影響を及ぼすことがわかった。
しかし、AIと人間ラベルの条件に割り当てられた参加者の94.6%は、著者ラベルを信じていたが、ラベルは、政策に対する参加者の態度の変化、メッセージの正確性の判断、メッセージを共有する意図に有意な影響を与えなかった。
これらのパターンは、政策の事前知識、AIの経験、政党、教育水準、年齢など、さまざまな参加者特性に対して堅牢であった。
これらの結果は、著者ラベルが透明性を高める可能性はあるが、ラベル付きコンテンツの説得力に大きな影響を与える可能性は低いことを示唆し、AIが生成した情報によって引き起こされる課題に対処するための代替戦略の必要性を強調している。
関連論文リスト
- Artificial Intelligence in Deliberation: The AI Penalty and the Emergence of a New Deliberative Divide [0.0]
デジタル審議は民主的参加を拡大したが、課題は残る。
人工知能(AI)の最近の進歩は潜在的な解決策を提供するが、熟考におけるAIの役割に対する大衆の認識はいまだに過小評価されている。
AIが熟考、公的な信頼、受け入れ、参加意欲に統合される場合、影響される可能性がある。
論文 参考訳(メタデータ) (2025-03-10T16:33:15Z) - Almost AI, Almost Human: The Challenge of Detecting AI-Polished Writing [55.2480439325792]
誤分類は、偽の盗作行為の告発や、オンラインコンテンツにおけるAIの普及に関する誤解を招く可能性がある。
我々は、AI-Polished-Text Evaluationデータセットを用いて、最先端の11のAIテキスト検出を体系的に評価した。
我々の発見によると、検出器は、最小限に磨き上げられたテキストをAI生成と誤分類し、AIの関与度を区別し、古いモデルと小さなモデルに偏見を示す。
論文 参考訳(メタデータ) (2025-02-21T18:45:37Z) - Bridging the Communication Gap: Evaluating AI Labeling Practices for Trustworthy AI Development [41.64451715899638]
EUエネルギラベルのようなフレームワークにインスパイアされたハイレベルなAIラベルは、AIモデルの特性をより透明にするために提案されている。
本研究は,4つの重要な研究課題に沿った質的なインタビューを通じて,AIラベリングを評価する。
論文 参考訳(メタデータ) (2025-01-21T06:00:14Z) - Biased AI can Influence Political Decision-Making [64.9461133083473]
本稿では、AI言語モデルにおけるパルチザンバイアスが政治的意思決定に及ぼす影響について検討する。
政治的に偏見のあるモデルに晒された参加者は、意見を採用し、AIの偏見と一致した決定を下す可能性が著しく高いことがわかった。
論文 参考訳(メタデータ) (2024-10-08T22:56:00Z) - Human Bias in the Face of AI: The Role of Human Judgement in AI Generated Text Evaluation [48.70176791365903]
本研究では、偏見がAIと人為的コンテンツの知覚をどう形成するかを考察する。
ラベル付きおよびラベルなしコンテンツに対するヒトのラッカーの反応について検討した。
論文 参考訳(メタデータ) (2024-09-29T04:31:45Z) - Multi-stakeholder Perspective on Responsible Artificial Intelligence and
Acceptability in Education [0.0]
この研究は、多職種の視点から、教育における異なるAI応用の受容性について検討した。
データプライバシ、AIエージェンシー、透明性、説明可能性、AIの倫理的展開に関する懸念に対処する。
論文 参考訳(メタデータ) (2024-02-22T23:59:59Z) - FATE in AI: Towards Algorithmic Inclusivity and Accessibility [0.0]
AIにおけるアルゴリズム上の格差、公平性、説明責任、透明性、倫理(FATE)が実装されている。
本研究では、AIによって守られている世界南部地域のFATE関連デシダータ、特に透明性と倫理について検討する。
インクリシティを促進するために、コミュニティ主導の戦略が提案され、責任あるAI設計のための代表データを収集し、キュレートする。
論文 参考訳(メタデータ) (2023-01-03T15:08:10Z) - The Role of AI in Drug Discovery: Challenges, Opportunities, and
Strategies [97.5153823429076]
この分野でのAIのメリット、課題、欠点についてレビューする。
データ拡張、説明可能なAIの使用、従来の実験手法とAIの統合についても論じている。
論文 参考訳(メタデータ) (2022-12-08T23:23:39Z) - Aligning Artificial Intelligence with Humans through Public Policy [0.0]
このエッセイは、下流のタスクに活用可能なポリシーデータの構造を学ぶAIの研究の概要を概説する。
これはAIとポリシーの"理解"フェーズを表していると私たちは考えていますが、AIを整合させるために人的価値の重要な源としてポリシーを活用するには、"理解"ポリシーが必要です。
論文 参考訳(メタデータ) (2022-06-25T21:31:14Z) - How Different Groups Prioritize Ethical Values for Responsible AI [75.40051547428592]
民間企業、公共セクター組織、学術団体は、責任あるAI技術にとって重要であると考える倫理的価値観を概説している。
彼らのレコメンデーションは中央値のセットに収束するが、より代表的な大衆が、彼らが交流し、影響を受ける可能性のあるAI技術にとって重要な価値についてはほとんど知られていない。
我々は、個人が3つのグループにまたがる責任あるAIの価値観をどのように認識し、優先順位付けしているかを調査した。
論文 参考訳(メタデータ) (2022-05-16T14:39:37Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。