論文の概要: Labeling Messages as AI-Generated Does Not Reduce Their Persuasive Effects
- arxiv url: http://arxiv.org/abs/2504.09865v1
- Date: Mon, 14 Apr 2025 04:22:39 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-04-15 16:55:35.200858
- Title: Labeling Messages as AI-Generated Does Not Reduce Their Persuasive Effects
- Title(参考訳): AIが生成するメッセージのラベル付けは、その説得力を減らすものではない
- Authors: Isabel O. Gallegos, Chen Shani, Weiyan Shi, Federico Bianchi, Izzy Gainsburg, Dan Jurafsky, Robb Willer,
- Abstract要約: 1つの顕著なポリシー提案は、透明性を高め、情報に対する批判的思考を促進するために、AI生成コンテンツを明示的にラベル付けすることである。
我々は多種多様なアメリカ人を対象に調査実験を行った。
その結果、メッセージは一般的に説得力があり、参加者の政策に対する見解に平均9.74ポイント影響を及ぼすことがわかった。
- 参考スコア(独自算出の注目度): 33.16943695290958
- License:
- Abstract: As generative artificial intelligence (AI) enables the creation and dissemination of information at massive scale and speed, it is increasingly important to understand how people perceive AI-generated content. One prominent policy proposal requires explicitly labeling AI-generated content to increase transparency and encourage critical thinking about the information, but prior research has not yet tested the effects of such labels. To address this gap, we conducted a survey experiment (N=1601) on a diverse sample of Americans, presenting participants with an AI-generated message about several public policies (e.g., allowing colleges to pay student-athletes), randomly assigning whether participants were told the message was generated by (a) an expert AI model, (b) a human policy expert, or (c) no label. We found that messages were generally persuasive, influencing participants' views of the policies by 9.74 percentage points on average. However, while 94.6% of participants assigned to the AI and human label conditions believed the authorship labels, labels had no significant effects on participants' attitude change toward the policies, judgments of message accuracy, nor intentions to share the message with others. These patterns were robust across a variety of participant characteristics, including prior knowledge of the policy, prior experience with AI, political party, education level, or age. Taken together, these results imply that, while authorship labels would likely enhance transparency, they are unlikely to substantially affect the persuasiveness of the labeled content, highlighting the need for alternative strategies to address challenges posed by AI-generated information.
- Abstract(参考訳): 生成的人工知能(AI)は、大規模で高速な情報の作成と普及を可能にするため、人々がAI生成コンテンツをどう知覚するかを理解することがますます重要である。
1つの顕著な政策提案は、透明性を高め、情報に対する批判的思考を促進するために、AI生成コンテンツを明示的にラベル付けすることである。
このギャップに対処するため、我々は様々なアメリカ人を対象に調査実験(N=1601)を行い、参加者にいくつかの公開政策に関するAI生成メッセージ(例えば、大学が学生会費を支払うことができる)を提示し、参加者にメッセージが作成されたかどうかをランダムに割り当てた。
(a)専門家AIモデル
b)人間政策の専門家、又は
(c)ラベルなし。
その結果、メッセージは一般的に説得力があり、参加者の政策に対する見解に平均9.74ポイント影響を及ぼすことがわかった。
しかし、AIと人間ラベルの条件に割り当てられた参加者の94.6%は、著者ラベルを信じていたが、ラベルは、政策に対する参加者の態度の変化、メッセージの正確性の判断、メッセージを共有する意図に有意な影響を与えなかった。
これらのパターンは、政策の事前知識、AIの経験、政党、教育水準、年齢など、さまざまな参加者特性に対して堅牢であった。
これらの結果は、著者ラベルが透明性を高める可能性はあるが、ラベル付きコンテンツの説得力に大きな影響を与える可能性は低いことを示唆し、AIが生成した情報によって引き起こされる課題に対処するための代替戦略の必要性を強調している。
関連論文リスト
- Bridging the Communication Gap: Evaluating AI Labeling Practices for Trustworthy AI Development [41.64451715899638]
EUエネルギラベルのようなフレームワークにインスパイアされたハイレベルなAIラベルは、AIモデルの特性をより透明にするために提案されている。
本研究は,4つの重要な研究課題に沿った質的なインタビューを通じて,AIラベリングを評価する。
論文 参考訳(メタデータ) (2025-01-21T06:00:14Z) - Biased AI can Influence Political Decision-Making [64.9461133083473]
本稿では、AI言語モデルにおけるパルチザンバイアスが政治的意思決定に及ぼす影響について検討する。
政治的に偏見のあるモデルに晒された参加者は、意見を採用し、AIの偏見と一致した決定を下す可能性が著しく高いことがわかった。
論文 参考訳(メタデータ) (2024-10-08T22:56:00Z) - Human Bias in the Face of AI: The Role of Human Judgement in AI Generated Text Evaluation [48.70176791365903]
本研究では、偏見がAIと人為的コンテンツの知覚をどう形成するかを考察する。
ラベル付きおよびラベルなしコンテンツに対するヒトのラッカーの反応について検討した。
論文 参考訳(メタデータ) (2024-09-29T04:31:45Z) - Multi-stakeholder Perspective on Responsible Artificial Intelligence and
Acceptability in Education [0.0]
この研究は、多職種の視点から、教育における異なるAI応用の受容性について検討した。
データプライバシ、AIエージェンシー、透明性、説明可能性、AIの倫理的展開に関する懸念に対処する。
論文 参考訳(メタデータ) (2024-02-22T23:59:59Z) - Fairness And Bias in Artificial Intelligence: A Brief Survey of Sources,
Impacts, And Mitigation Strategies [11.323961700172175]
この調査論文は、AIの公平性とバイアスに関する簡潔で包括的な概要を提供する。
我々は、データ、アルゴリズム、人間の決定バイアスなどのバイアス源をレビューする。
偏りのあるAIシステムの社会的影響を評価し,不平等の持続性と有害なステレオタイプの強化に着目した。
論文 参考訳(メタデータ) (2023-04-16T03:23:55Z) - FATE in AI: Towards Algorithmic Inclusivity and Accessibility [0.0]
AIにおけるアルゴリズム上の格差、公平性、説明責任、透明性、倫理(FATE)が実装されている。
本研究では、AIによって守られている世界南部地域のFATE関連デシダータ、特に透明性と倫理について検討する。
インクリシティを促進するために、コミュニティ主導の戦略が提案され、責任あるAI設計のための代表データを収集し、キュレートする。
論文 参考訳(メタデータ) (2023-01-03T15:08:10Z) - The Role of AI in Drug Discovery: Challenges, Opportunities, and
Strategies [97.5153823429076]
この分野でのAIのメリット、課題、欠点についてレビューする。
データ拡張、説明可能なAIの使用、従来の実験手法とAIの統合についても論じている。
論文 参考訳(メタデータ) (2022-12-08T23:23:39Z) - Aligning Artificial Intelligence with Humans through Public Policy [0.0]
このエッセイは、下流のタスクに活用可能なポリシーデータの構造を学ぶAIの研究の概要を概説する。
これはAIとポリシーの"理解"フェーズを表していると私たちは考えていますが、AIを整合させるために人的価値の重要な源としてポリシーを活用するには、"理解"ポリシーが必要です。
論文 参考訳(メタデータ) (2022-06-25T21:31:14Z) - How Different Groups Prioritize Ethical Values for Responsible AI [75.40051547428592]
民間企業、公共セクター組織、学術団体は、責任あるAI技術にとって重要であると考える倫理的価値観を概説している。
彼らのレコメンデーションは中央値のセットに収束するが、より代表的な大衆が、彼らが交流し、影響を受ける可能性のあるAI技術にとって重要な価値についてはほとんど知られていない。
我々は、個人が3つのグループにまたがる責任あるAIの価値観をどのように認識し、優先順位付けしているかを調査した。
論文 参考訳(メタデータ) (2022-05-16T14:39:37Z) - Building Bridges: Generative Artworks to Explore AI Ethics [56.058588908294446]
近年,人工知能(AI)技術が社会に与える影響の理解と緩和に重点が置かれている。
倫理的AIシステムの設計における重要な課題は、AIパイプラインには複数の利害関係者があり、それぞれがそれぞれ独自の制約と関心を持っていることだ。
このポジションペーパーは、生成的アートワークが、アクセス可能で強力な教育ツールとして機能することで、この役割を果たすことができる可能性のいくつかを概説する。
論文 参考訳(メタデータ) (2021-06-25T22:31:55Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。