論文の概要: Explaining the Reputational Risks of AI-Mediated Communication: Messages Labeled as AI-Assisted Are Viewed as Less Diagnostic of the Sender's Moral Character
- arxiv url: http://arxiv.org/abs/2509.09645v1
- Date: Thu, 11 Sep 2025 17:35:32 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-12 16:52:24.495133
- Title: Explaining the Reputational Risks of AI-Mediated Communication: Messages Labeled as AI-Assisted Are Viewed as Less Diagnostic of the Sender's Moral Character
- Title(参考訳): AIを利用したコミュニケーションにおける批判的リスクの説明: 「AI支援」とラベル付けされたメッセージは、売春婦のモラルキャラクタの少ない診断として見なされる
- Authors: Pranav Khadpe, Kimi Wenzel, George Loewenstein, Geoff Kaufman,
- Abstract要約: AIアシスタンスラベルは、必ずしも送信者を否定的に見るとは限らないことに気付きました。
誰かがAIの助けなしに温かみのあるメッセージ(感謝や謝罪など)を送ると、人々はより強く送信者を暖かく分類する。
我々は,これまでに報告されたAI-メディア通信における観測結果の因果関係に光を当てる方法について論じる。
- 参考スコア(独自算出の注目度): 12.414540267028046
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: When someone sends us a thoughtful message, we naturally form judgments about their character. But what happens when that message carries a label indicating it was written with the help of AI? This paper investigates how the appearance of AI assistance affects our perceptions of message senders. Adding nuance to previous research, through two studies (N=399) featuring vignette scenarios, we find that AI-assistance labels don't necessarily make people view senders negatively. Rather, they dampen the strength of character signals in communication. We show that when someone sends a warmth-signalling message (like thanking or apologizing) without AI help, people more strongly categorize the sender as warm. At the same time, when someone sends a coldness-signalling message (like bragging or blaming) without assistance, people more confidently categorize them as cold. Interestingly, AI labels weaken both these associations: An AI-assisted apology makes the sender appear less warm than if they had written it themselves, and an AI-assisted blame makes the sender appear less cold than if they had composed it independently. This supports our signal diagnosticity explanation: messages labeled as AI-assisted are viewed as less diagnostic than messages which seem unassisted. We discuss how our findings shed light on the causal origins of previously reported observations in AI-Mediated Communication.
- Abstract(参考訳): 誰かが我々に思慮深いメッセージを送ると、我々は自然に彼らの性格について判断を下す。
しかし、そのメッセージがAIの助けを借りて書かれたことを示すラベルを持っているとどうなるだろうか?
本稿では,AI支援の出現がメッセージ送信者の認識にどのように影響するかを検討する。
従来の研究にニュアンスを加えると、2つの研究 (N=399) でヴィグネットのシナリオを特集し、AI支援ラベルが必ずしも送信者を否定的に見るとは限らないことを発見した。
むしろ、コミュニケーションにおいて文字信号の強度を減衰させる。
誰かがAIの助けなしに温かみのあるメッセージ(感謝や謝罪など)を送ると、人々はより強く送信者を暖かく分類する。
同時に、誰かが助けなしで冷淡なメッセージ(自慢や責めなど)を送ると、人々はそれらをより自信を持って冷たく分類する。
興味深いことに、AIラベルはこれら2つの関連を弱める。AI支援の謝罪は、送信者が自分で書いたものよりも暖かく見え、AI支援の非難は送信者が独立して作成したものよりも冷たく見える。
AIアシストとラベル付けされたメッセージは、非アシストのように見えるメッセージよりも診断の少ないと見なされる。
我々は,これまでに報告されたAI-メディア通信における観測結果の因果関係に光を当てる方法について論じる。
関連論文リスト
- Almost AI, Almost Human: The Challenge of Detecting AI-Polished Writing [55.2480439325792]
本研究では、AI-Polished-Text Evaluationデータセットを用いて、12の最先端AIテキスト検出器を体系的に評価する。
我々の発見によると、検出器は、最小限に洗練されたテキストをAI生成としてフラグ付けし、AIの関与度を区別し、古いモデルや小さなモデルに対するバイアスを示す。
論文 参考訳(メタデータ) (2025-02-21T18:45:37Z) - Blissful (A)Ignorance: People form overly positive impressions of others based on their written messages, despite wide-scale adoption of Generative AI [3.123597245751675]
我々は,送信者による生成AI(GenAI)の使用が送信者の印象にどのように影響するかを探る。
より現実的な条件下では、GenAIの潜在的な使用が明示的に強調されなかった場合、受信者は送信者に対して懐疑的ではない。
GenAIの潜在的な(しかし不確実な)使用について強調したとしても、受取人は過度に肯定的な印象を生んだ。
論文 参考訳(メタデータ) (2025-01-26T21:38:12Z) - Human Bias in the Face of AI: Examining Human Judgment Against Text Labeled as AI Generated [48.70176791365903]
本研究では、偏見がAIと人為的コンテンツの知覚をどう形成するかを考察する。
ラベル付きおよびラベルなしコンテンツに対するヒトのラッカーの反応について検討した。
論文 参考訳(メタデータ) (2024-09-29T04:31:45Z) - Navigating AI Fallibility: Examining People's Reactions and Perceptions of AI after Encountering Personality Misrepresentations [7.256711790264119]
ハイパーパーソナライズされたAIシステムは、パーソナライズされたレコメンデーションを提供するために人々の特性をプロファイルする。
これらのシステムは、人々の最も個人的な特性を推測する際にエラーに免疫がない。
人格の誤表現に遭遇した後、人々がどのように反応し、AIを知覚するかを検討するための2つの研究を行った。
論文 参考訳(メタデータ) (2024-05-25T21:27:15Z) - The effect of source disclosure on evaluation of AI-generated messages:
A two-part study [0.0]
情報源開示がAIによる健康被害防止メッセージの評価に与える影響について検討した。
情報源の開示はメッセージの評価に大きな影響を及ぼすが、メッセージのランキングを大きく変更することはなかった。
AIに対する否定的な態度の適度なレベルを持つ人にとっては、ソース開示はAI生成メッセージの嗜好を減らした。
論文 参考訳(メタデータ) (2023-11-27T05:20:47Z) - Deceptive AI Systems That Give Explanations Are Just as Convincing as
Honest AI Systems in Human-Machine Decision Making [38.71592583606443]
真実と偽の情報を見分ける能力は、健全な決定を下す上で不可欠である。
近年、AIに基づく偽情報キャンペーンが増加し、人間の情報処理に対する偽情報システムの影響を理解することが重要になっている。
論文 参考訳(メタデータ) (2022-09-23T20:09:03Z) - The Who in XAI: How AI Background Shapes Perceptions of AI Explanations [61.49776160925216]
私たちは、2つの異なるグループ、つまりAIのバックグラウンドを持つ人々といない人たちの、異なるタイプのAI説明に対する理解について、混合手法による研究を行います。
その結果,(1) 両群は異なる理由から不合理な数に対する信頼を示し,(2) それぞれの群は意図した設計以上の異なる説明に価値を見出した。
論文 参考訳(メタデータ) (2021-07-28T17:32:04Z) - The Threat of Offensive AI to Organizations [52.011307264694665]
この調査は、組織に対する攻撃的なAIの脅威を調査する。
まず、AIが敵の方法、戦略、目標、および全体的な攻撃モデルをどのように変えるかについて議論する。
そして、文献レビューを通じて、敵が攻撃を強化するために使用できる33の攻撃的AI能力を特定します。
論文 参考訳(メタデータ) (2021-06-30T01:03:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。