論文の概要: The effect of source disclosure on evaluation of AI-generated messages:
A two-part study
- arxiv url: http://arxiv.org/abs/2311.15544v1
- Date: Mon, 27 Nov 2023 05:20:47 GMT
- ステータス: 処理完了
- システム内更新日: 2023-11-28 17:03:31.551996
- Title: The effect of source disclosure on evaluation of AI-generated messages:
A two-part study
- Title(参考訳): 情報源開示がAI生成メッセージの評価に及ぼす影響:2部研究
- Authors: Sue Lim, Ralf Schm\"alzle
- Abstract要約: 情報源開示がAIによる健康被害防止メッセージの評価に与える影響について検討した。
情報源の開示はメッセージの評価に大きな影響を及ぼすが、メッセージのランキングを大きく変更することはなかった。
AIに対する否定的な態度の適度なレベルを持つ人にとっては、ソース開示はAI生成メッセージの嗜好を減らした。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Advancements in artificial intelligence (AI) over the last decade demonstrate
that machines can exhibit communicative behavior and influence how humans
think, feel, and behave. In fact, the recent development of ChatGPT has shown
that large language models (LLMs) can be leveraged to generate high-quality
communication content at scale and across domains, suggesting that they will be
increasingly used in practice. However, many questions remain about how knowing
the source of the messages influences recipients' evaluation of and preference
for AI-generated messages compared to human-generated messages. This paper
investigated this topic in the context of vaping prevention messaging. In Study
1, which was pre-registered, we examined the influence of source disclosure on
people's evaluation of AI-generated health prevention messages compared to
human-generated messages. We found that source disclosure (i.e., labeling the
source of a message as AI vs. human) significantly impacted the evaluation of
the messages but did not significantly alter message rankings. In a follow-up
study (Study 2), we examined how the influence of source disclosure may vary by
the participants' negative attitudes towards AI. We found a significant
moderating effect of negative attitudes towards AI on message evaluation, but
not for message selection. However, for those with moderate levels of negative
attitudes towards AI, source disclosure decreased the preference for
AI-generated messages. Overall, the results of this series of studies showed a
slight bias against AI-generated messages once the source was disclosed, adding
to the emerging area of study that lies at the intersection of AI and
communication.
- Abstract(参考訳): 過去10年間の人工知能(ai)の進歩は、機械がコミュニケーション行動を示し、人間の思考、感覚、行動に影響を及ぼすことを証明している。
実際、ChatGPTの最近の開発により、大規模言語モデル(LLM)が、大規模およびドメイン間の高品質なコミュニケーションコンテンツを生成するために活用できることが示され、実際はますます使われるようになる。
しかし、メッセージの発信元を知ることが、人間が生成したメッセージと比較して、受信者のAI生成メッセージの評価と嗜好にどのように影響するかについては、多くの疑問が残る。
本稿では,この話題を電子タバコ防止メッセージングの文脈で検討した。
事前登録された研究1では、ソース開示がaiによる健康予防メッセージの評価に及ぼす影響について、人間生成メッセージと比較して検討した。
ソースの開示(つまり、メッセージのソースをaiと人間にラベル付けする)は、メッセージの評価に大きな影響を与えたが、メッセージのランク付けには大きな影響を与えなかった。
研究2では,被験者のAIに対する否定的態度によって,情報源開示の影響がどう変化するかを検討した。
我々は,AIに対するネガティブな態度がメッセージ評価に悪影響を及ぼすことを発見したが,メッセージ選択には影響しなかった。
しかし、AIに対する否定的な態度が適度である場合、ソース開示はAI生成メッセージの嗜好を減らした。
全体として、この一連の研究の結果は、ソースが開示されるとAIが生成するメッセージに対してわずかに偏りを示し、AIとコミュニケーションの交差点にある新たな研究領域が加わった。
関連論文リスト
- Human Bias in the Face of AI: The Role of Human Judgement in AI Generated Text Evaluation [48.70176791365903]
本研究では、偏見がAIと人為的コンテンツの知覚をどう形成するかを考察する。
ラベル付きおよびラベルなしコンテンツに対するヒトのラッカーの反応について検討した。
論文 参考訳(メタデータ) (2024-09-29T04:31:45Z) - Measuring Human Contribution in AI-Assisted Content Generation [68.03658922067487]
本研究は,AIによるコンテンツ生成における人間の貢献度を測定する研究課題を提起する。
人間の入力とAI支援出力の自己情報に対する相互情報を計算することにより、コンテンツ生成における人間の比例情報貢献を定量化する。
論文 参考訳(メタデータ) (2024-08-27T05:56:04Z) - Comparing Large Language Model AI and Human-Generated Coaching Messages
for Behavioral Weight Loss [5.824523259910306]
大規模言語モデル(LLM)ベースの人工知能(AI)チャットボットは、よりパーソナライズされた新しいメッセージを提供することができる。
重量挙げ試験では87人の成人が、5ポイントのQuatスケールを使用して10のコーチングメッセージの役に立つと評価した。
論文 参考訳(メタデータ) (2023-12-07T05:45:24Z) - Towards Possibilities & Impossibilities of AI-generated Text Detection:
A Survey [97.33926242130732]
大規模言語モデル(LLM)は、自然言語処理(NLP)の領域に革命をもたらし、人間のようなテキスト応答を生成する能力を持つ。
これらの進歩にもかかわらず、既存の文献のいくつかは、LLMの潜在的な誤用について深刻な懸念を提起している。
これらの懸念に対処するために、研究コミュニティのコンセンサスは、AI生成テキストを検出するアルゴリズムソリューションを開発することである。
論文 参考訳(メタデータ) (2023-10-23T18:11:32Z) - Measuring the Effect of Influential Messages on Varying Personas [67.1149173905004]
我々は、ニュースメッセージを見る際にペルソナが持つ可能性のある応答を推定するために、ニュースメディア向けのペルソナに対するレスポンス予測という新しいタスクを提示する。
提案課題は,モデルにパーソナライズを導入するだけでなく,各応答の感情極性と強度も予測する。
これにより、ペルソナの精神状態に関するより正確で包括的な推測が可能になる。
論文 参考訳(メタデータ) (2023-05-25T21:01:00Z) - Artificial Intelligence for Health Message Generation: Theory, Method,
and an Empirical Study Using Prompt Engineering [0.0]
本研究では、健康意識メッセージを生成するAIシステムの可能性を紹介し、検討する。
妊娠中に重要なビタミンである葉酸は、検査ケースとして機能する。
私たちは認識を高めるためにメッセージを生成し、それをリツイートされた人間生成メッセージと比較しました。
論文 参考訳(メタデータ) (2022-12-14T21:13:08Z) - The Role of AI in Drug Discovery: Challenges, Opportunities, and
Strategies [97.5153823429076]
この分野でのAIのメリット、課題、欠点についてレビューする。
データ拡張、説明可能なAIの使用、従来の実験手法とAIの統合についても論じている。
論文 参考訳(メタデータ) (2022-12-08T23:23:39Z) - Role of Human-AI Interaction in Selective Prediction [20.11364033416315]
我々は、AIシステムの遅延決定について、異なる種類の情報を人間に伝達する影響について研究する。
我々は,AIの予測は明らかにせず,遅延する決定を人間に伝えることで,人間のパフォーマンスを大幅に向上させることが可能であることを示す。
論文 参考訳(メタデータ) (2021-12-13T16:03:13Z) - Fairness via AI: Bias Reduction in Medical Information [3.254836540242099]
本稿では,医学教育,社会学,反人種差別主義の洞察に触発された,AIによるフェアネスの新たな枠組みを提案する。
我々はAIを用いて、社会の少数派を不均等に傷つける偏見、有害、および/または偽の健康情報を研究、検出、緩和することを提案する。
論文 参考訳(メタデータ) (2021-09-06T01:39:48Z) - Machine Learning Explanations to Prevent Overtrust in Fake News
Detection [64.46876057393703]
本研究では、ニュースレビュープラットフォームに組み込んだ説明可能なAIアシスタントが、フェイクニュースの拡散と戦う効果について検討する。
我々は、ニュースレビューと共有インターフェースを設計し、ニュース記事のデータセットを作成し、4つの解釈可能なフェイクニュース検出アルゴリズムを訓練する。
説明可能なAIシステムについてより深く理解するために、説明プロセスにおけるユーザエンゲージメント、メンタルモデル、信頼、パフォーマンス対策の相互作用について議論する。
論文 参考訳(メタデータ) (2020-07-24T05:42:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。