論文の概要: Blissful (A)Ignorance: People form overly positive impressions of others based on their written messages, despite wide-scale adoption of Generative AI
- arxiv url: http://arxiv.org/abs/2501.15678v1
- Date: Sun, 26 Jan 2025 21:38:12 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-01-28 21:57:03.800188
- Title: Blissful (A)Ignorance: People form overly positive impressions of others based on their written messages, despite wide-scale adoption of Generative AI
- Title(参考訳): Blissful (A)無視: ジェネレーティブAIが広く採用されているにもかかわらず、人々は自分のメッセージに基づいて他人の過度にポジティブな印象を形成する
- Authors: Jiaqi Zhu, Andras Molnar,
- Abstract要約: 我々は,送信者による生成AI(GenAI)の使用が送信者の印象にどのように影響するかを探る。
より現実的な条件下では、GenAIの潜在的な使用が明示的に強調されなかった場合、受信者は送信者に対して懐疑的ではない。
GenAIの潜在的な(しかし不確実な)使用について強調したとしても、受取人は過度に肯定的な印象を生んだ。
- 参考スコア(独自算出の注目度): 3.123597245751675
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: As the use of Generative AI (GenAI) tools becomes more prevalent in interpersonal communication, understanding their impact on social perceptions is crucial. According to signaling theory, GenAI may undermine the credibility of social signals conveyed in writing, since it reduces the cost of writing and makes it hard to verify the authenticity of messages. Using a pre-registered large-scale online experiment (N = 647; Prolific), featuring scenarios in a range of communication contexts (personal vs. professional; close others vs. strangers), we explored how senders' use of GenAI influenced recipients' impressions of senders, both when GenAI use was known or uncertain. Consistent with past work, we found strong negative effects on social impressions when disclosing that a message was AI-generated, compared to when the same message was human-written. However, under the more realistic condition when potential GenAI use was not explicitly highlighted, recipients did not exhibit any skepticism towards senders, and these "uninformed" impressions were virtually indistinguishable from those of fully human-written messages. Even when we highlighted the potential (but uncertain) use of GenAI, recipients formed overly positive impressions. These results are especially striking given that 46% of our sample admitted having used such tools for writing messages, just within the past two weeks. Our findings put past work in a new light: While social judgments can be substantially affected when GenAI use is explicitly disclosed, this information may not be readily available in more realistic communication settings, making recipients blissfully ignorant about others' potential use of GenAI.
- Abstract(参考訳): 対人コミュニケーションにおいて、ジェネレーティブAI(GenAI)ツールの使用がより一般的になるにつれて、社会的知覚に対する彼らの影響を理解することが重要である。
合理化理論では、書記のコストを低減し、メッセージの真偽の検証を困難にするため、書記において伝達される社会信号の信頼性を損なう可能性がある。
登録済みの大規模オンライン実験(N = 647, Prolific)を用いて,GenAIの使用が受信者の印象にどのような影響を及ぼすかを検討した。
過去の研究と一致して、メッセージがAIによって生成されたことを開示した場合、同じメッセージが人間によって書かれたときと比較して、社会的な印象に強いネガティブな影響が認められた。
しかし、GenAIの潜在的な使用が明確に強調されていないより現実的な条件下では、受信者は送信者に対して懐疑的ではない。
GenAIの潜在的な(しかし不確実な)使用について強調したとしても、受取人は過度に肯定的な印象を生んだ。
サンプルの46%が、メッセージを書くためにこのようなツールを使っていることを認めているので、これらの結果は特に印象的です。
社会的な判断は、GenAIの使用が明示されたときに大きく影響を受ける可能性があるが、この情報は、より現実的なコミュニケーション環境では容易には利用できないため、受取人が他のGenAIの使用の可能性について無知になる可能性がある。
関連論文リスト
- The Illusion of Friendship: Why Generative AI Demands Unprecedented Ethical Vigilance [2.3931689873603603]
GenAIシステムは、ドラフト、要約、意思決定支援にますます利用されている。
これらのシステムを有用なものにするのと同じ自然言語の流布もまた、ツールとコンパニオンの境界を曖昧にする可能性がある。
本稿では,友情の錯覚が理解可能であり,倫理的に危険である理由について,哲学的・倫理的議論を提起する。
論文 参考訳(メタデータ) (2026-01-12T07:03:20Z) - Generative AI Practices, Literacy, and Divides: An Empirical Analysis in the Italian Context [32.495879271249414]
本研究は、イタリアにおけるGenAI導入、利用パターン、リテラシーに関する総合的な実証的マッピングを初めて提示する。
以上の結果から,情緒的サポートや医療アドバイスなどの敏感なタスクを含む,仕事と個人利用の両方に広く採用されていることが明らかとなった。
女性の半分がGenAIを採用する可能性があり、男性よりも使用頻度が低い、有意義な男女格差を特定した。
論文 参考訳(メタデータ) (2025-12-03T11:01:28Z) - Generative AI in Sociological Research: State of the Discipline [0.0]
ジェネレーティブ・人工知能(GenAI)は、研究と奨学金の潜在的有用性についてかなりの注目を集めている。
初期のコメンテーターは、GenAIの利用がいかに環境コスト、深刻な社会的リスク、低品質なコンテンツを生み出す傾向があるか、という懸念を明確に述べている。
本研究は,社会学研究を拠点として,過去5年間に50の社会学雑誌に掲載された433の論文の著者を対象とした調査を行った。
論文 参考訳(メタデータ) (2025-11-21T01:34:28Z) - Human Trust in AI Search: A Large-Scale Experiment [0.07589017023705934]
生成的人工知能(GenAI)は、購入するもの、投票方法、健康に影響を及ぼす。
生成的検索デザインが人間の信頼に因果的影響を及ぼす研究はない。
我々は7カ国で12,000の検索クエリを実行し、80,000のリアルタイムGenAIと従来の検索結果を生成した。
論文 参考訳(メタデータ) (2025-04-08T21:12:41Z) - Reflection on Data Storytelling Tools in the Generative AI Era from the Human-AI Collaboration Perspective [54.152639172274]
大規模生成AI技術は、ビジュアルおよびナレーション生成におけるそのパワーでデータストーリーテリングを強化する可能性がある。
我々は、最新のツールのコラボレーションパターンを、データストーリーテリングにおける人間とAIのコラボレーションを理解するための専用のフレームワークを使用して、以前のツールのパターンと比較する。
これらのAIテクニックのメリットと、人間とAIのコラボレーションへの影響も明らかにされている。
論文 参考訳(メタデータ) (2025-03-04T13:56:18Z) - "I Am the One and Only, Your Cyber BFF": Understanding the Impact of GenAI Requires Understanding the Impact of Anthropomorphic AI [55.99010491370177]
我々は、人為的AIの社会的影響をマッピングしない限り、生成AIの社会的影響を徹底的にマッピングすることはできないと論じる。
人為的AIシステムは、人間のように知覚されるアウトプットを生成する傾向が強まっている。
論文 参考訳(メタデータ) (2024-10-11T04:57:41Z) - Human Bias in the Face of AI: The Role of Human Judgement in AI Generated Text Evaluation [48.70176791365903]
本研究では、偏見がAIと人為的コンテンツの知覚をどう形成するかを考察する。
ラベル付きおよびラベルなしコンテンツに対するヒトのラッカーの反応について検討した。
論文 参考訳(メタデータ) (2024-09-29T04:31:45Z) - The Great AI Witch Hunt: Reviewers Perception and (Mis)Conception of Generative AI in Research Writing [25.73744132026804]
研究執筆におけるジェネレーティブAI(GenAI)の利用は急速に増加している。
ピアレビュアーがAIによる増補された写本をどう認識するか、それとも誤認しているかは明らかでない。
我々の研究結果は、AIによって強化された文章は可読性、言語多様性、情報性を改善するが、しばしば研究の詳細や著者からの反射的な洞察を欠いていることを示唆している。
論文 参考訳(メタデータ) (2024-06-27T02:38:25Z) - The Influencer Next Door: How Misinformation Creators Use GenAI [1.1650821883155187]
我々は、非専門家がGenAIをリミックス、再パッケージ、そして(再)コンテンツの制作に利用し、彼らの個人的ニーズや欲求に応えていることに気付きました。
我々は、これらの突発的GenAIの使用が、新しいまたは加速された誤情報障害をいかに生み出すかを分析する。
論文 参考訳(メタデータ) (2024-05-22T11:40:22Z) - The effect of source disclosure on evaluation of AI-generated messages:
A two-part study [0.0]
情報源開示がAIによる健康被害防止メッセージの評価に与える影響について検討した。
情報源の開示はメッセージの評価に大きな影響を及ぼすが、メッセージのランキングを大きく変更することはなかった。
AIに対する否定的な態度の適度なレベルを持つ人にとっては、ソース開示はAI生成メッセージの嗜好を減らした。
論文 参考訳(メタデータ) (2023-11-27T05:20:47Z) - Identifying and Mitigating the Security Risks of Generative AI [179.2384121957896]
本稿では,GenAIによる双対ジレンマに関するGoogleのワークショップの成果を報告する。
GenAIはまた、攻撃者が新しい攻撃を生成し、既存の攻撃のベロシティと有効性を高めるためにも使用できる。
この話題について,コミュニティの短期的,長期的目標について論じる。
論文 参考訳(メタデータ) (2023-08-28T18:51:09Z) - Leveraging Implicit Feedback from Deployment Data in Dialogue [83.02878726357523]
本研究では,ユーザ間の自然な対話とデプロイモデルから学習することで,社会的会話エージェントの改善について検討する。
我々は、ユーザ応答長、感情、未来の人間の発話の反応などの信号を、収集された対話エピソードで活用する。
論文 参考訳(メタデータ) (2023-07-26T11:34:53Z) - Public Perception of Generative AI on Twitter: An Empirical Study Based
on Occupation and Usage [7.18819534653348]
本稿は,2019年1月から2023年3月までのTwitter上での3Mポストを用いた生成AIに対するユーザの認識について検討する。
私たちは、IT関連だけでなく、様々な職種にまたがる人々が、生成AIに強い関心を示していることに気付きました。
ChatGPTのリリース後、AI全般に対する人々の関心は劇的に高まった。
論文 参考訳(メタデータ) (2023-05-16T15:30:12Z) - Faking Fake News for Real Fake News Detection: Propaganda-loaded
Training Data Generation [105.20743048379387]
提案手法は,人間によるプロパガンダのスタイルや戦略から情報を得た学習例を生成するための新しいフレームワークである。
具体的には、生成した記事の有効性を確保するために、自然言語推論によって導かれる自己臨界シーケンストレーニングを行う。
実験の結果、PropaNewsでトレーニングされた偽ニュース検知器は、2つの公開データセットで3.62~7.69%のF1スコアで人書きの偽情報を検出するのに優れていることがわかった。
論文 参考訳(メタデータ) (2022-03-10T14:24:19Z) - Causal Understanding of Fake News Dissemination on Social Media [50.4854427067898]
我々は、ユーザーがフェイクニュースを共有するのに、ユーザー属性が何をもたらすかを理解することが重要だと論じている。
偽ニュース拡散において、共同創設者は、本質的にユーザー属性やオンライン活動に関連する偽ニュース共有行動によって特徴づけられる。
本稿では,偽ニュース拡散における選択バイアスを軽減するための原則的アプローチを提案する。
論文 参考訳(メタデータ) (2020-10-20T19:37:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。