論文の概要: Willingness to Read AI-Generated News Is Not Driven by Their Perceived Quality
- arxiv url: http://arxiv.org/abs/2409.03500v3
- Date: Fri, 14 Feb 2025 10:39:01 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-02-17 18:05:51.962235
- Title: Willingness to Read AI-Generated News Is Not Driven by Their Perceived Quality
- Title(参考訳): AIが生み出すニュースを読む意志は、その品質に左右されない
- Authors: Fabrizio Gilardi, Sabrina Di Lorenzo, Juri Ezzaini, Beryl Santa, Benjamin Streiff, Eric Zurfluh, Emma Hoes,
- Abstract要約: 本研究では,AI支援記事とAI生成記事と人為的ニュース記事の認識品質について検討する。
また、これらのニュース記事の生成にAIが関与していることの開示が、彼らとの関わりに影響を及ぼすかどうかについても調査している。
- 参考スコア(独自算出の注目度): 3.036383058306671
- License:
- Abstract: The advancement of artificial intelligence has led to its application in many areas, including news media, which makes it crucial to understand public reception of AI-generated news. This preregistered study investigates (i) the perceived quality of AI-assisted and AI-generated versus human-generated news articles, (ii) whether disclosure of AI's involvement in generating these news articles influences engagement with them, and (iii) whether such awareness affects the willingness to read AI-generated articles in the future. We conducted a survey experiment with 599 Swiss participants, who evaluated the credibility, readability, and expertise of news articles either written by journalists (control group), rewritten by AI (AI-assisted group), or entirely written by AI (AI-generated group). Our results indicate that all articles were perceived to be of equal quality. When participants in the treatment groups were subsequently made aware of AI's role, they expressed a higher willingness to continue reading the articles than participants in the control group. However, they were not more willing to read AI-generated news in the future. These results suggest that aversion to AI usage in news media is not primarily rooted in a perceived lack of quality, and that by disclosing using AI, journalists could induce more short-term engagement.
- Abstract(参考訳): 人工知能の進歩は、ニュースメディアを含む多くの分野に応用され、AIが生み出すニュースのパブリックレセプションを理解することが不可欠になっている。
この事前登録された研究は
i) 人為的ニュース記事に対するAI支援とAI生成の認知的品質。
(二)これらのニュース記事作成におけるAIの関与の開示が、それらとの関わりに影響を及ぼすか否か、及び
三 こうした意識が将来、AI生成記事を読む意欲に影響を及ぼすか否か。
スイスの599人の参加者を対象に,ジャーナリスト(制御グループ),AI(AI支援グループ),AI(AI生成グループ)によって書き直されたニュース記事の信頼性,可読性,専門性を調査した。
我々の結果は、全ての記事が同等の質であると認識されたことを示している。
治療グループの参加者がその後,AIの役割に気付くと,コントロールグループの参加者よりも記事を読み続ける意思が高かった。
しかし、彼らは将来AIが生み出すニュースを読みたいとは思っていなかった。
これらの結果は、ニュースメディアにおけるAI使用の回避は、主に品質の欠如が原因ではなく、ジャーナリストがAIを使って開示することで、より短期的なエンゲージメントが引き起こされることを示唆している。
関連論文リスト
- Artificial Intelligence in Brazilian News: A Mixed-Methods Analysis [0.0]
本研究は,2023年7月1日から2024年2月29日までに発行されたブラジルのメディアから,13の人気ニュースメディアから3,560件のニュース記事を分析した。
この結果から、ブラジルのAIに関するニュースは、職場やプロダクトのローンチにおけるアプリケーションに関連するトピックに支配されていることが明らかになった。
この分析はまた、業界関連企業の存在が顕著に強調され、企業の課題が国内のニュースに強く影響していることを示している。
論文 参考訳(メタデータ) (2024-10-22T20:52:51Z) - Biased AI can Influence Political Decision-Making [64.9461133083473]
本稿では、AI言語モデルにおけるパルチザンバイアスが政治的意思決定に及ぼす影響について検討する。
政治的に偏見のあるモデルに晒された参加者は、意見を採用し、AIの偏見と一致した決定を下す可能性が著しく高いことがわかった。
論文 参考訳(メタデータ) (2024-10-08T22:56:00Z) - The Impact of Knowledge Silos on Responsible AI Practices in Journalism [0.0]
この研究は、ジャーナリズムにおける責任あるAIプラクティスの採用に、知識サイロがどう影響するか、そしてそのようにすることを目的としている。
De Telegraaf, de Volkskrant, the Nederlandse Omroep Stichting, RTL Nederlandで14回の半構造化インタビューを行った。
我々の結果は、ニュース組織のすべての層にまたがって、AIに関する情報を共有するためのより良い構造を構築することの重要性を強調します。
論文 参考訳(メタデータ) (2024-10-02T00:27:01Z) - Human Bias in the Face of AI: The Role of Human Judgement in AI Generated Text Evaluation [48.70176791365903]
本研究では、偏見がAIと人為的コンテンツの知覚をどう形成するかを考察する。
ラベル付きおよびラベルなしコンテンツに対するヒトのラッカーの反応について検討した。
論文 参考訳(メタデータ) (2024-09-29T04:31:45Z) - Artificial Intelligence Index Report 2024 [15.531650534547945]
AI Indexのレポートでは、人工知能(AI)に関連するデータを追跡、照合、蒸留、可視化している。
AIインデックスは、AIに関するデータと洞察の最も信頼性が高く権威のある情報源の1つとして、世界的に認識されている。
今年のエディションは、サイズ、スケール、スコープのすべての旧版を上回り、AIが私たちの人生で持つ重要性が増していることを反映している。
論文 参考訳(メタデータ) (2024-05-29T20:59:57Z) - The Global Impact of AI-Artificial Intelligence: Recent Advances and
Future Directions, A Review [0.0]
この記事では、経済的、倫理的、社会的、セキュリティとプライバシ、仕事のずれといった、AIの影響を強調している。
偏見、セキュリティ、プライバシー侵害などの問題を含む、AI開発に関する倫理的懸念について論じている。
この記事は、社会全体にAIが及ぼす影響の認識と理解を促進するために、公的なエンゲージメントと教育の重要性を強調して締めくくっている。
論文 参考訳(メタデータ) (2023-12-22T00:41:21Z) - J-Guard: Journalism Guided Adversarially Robust Detection of
AI-generated News [12.633638679020903]
我々は、AI生成ニュースを検出するために、既存の教師付きAIテキスト検出器を操ることのできるフレームワーク、J-Guardを開発した。
J-Guardは、ユニークなジャーナリストの属性にインスパイアされたスタイリスティックなヒントを取り入れることで、現実のジャーナリズムとAI生成のニュース記事とを効果的に区別する。
論文 参考訳(メタデータ) (2023-09-06T17:06:31Z) - Fairness in AI and Its Long-Term Implications on Society [68.8204255655161]
AIフェアネスを詳しく見て、AIフェアネスの欠如が、時間の経過とともにバイアスの深化につながるかを分析します。
偏りのあるモデルが特定のグループに対してよりネガティブな現実的な結果をもたらすかについて議論する。
問題が続くと、他のリスクとの相互作用によって強化され、社会不安という形で社会に深刻な影響を及ぼす可能性がある。
論文 参考訳(メタデータ) (2023-04-16T11:22:59Z) - The Role of AI in Drug Discovery: Challenges, Opportunities, and
Strategies [97.5153823429076]
この分野でのAIのメリット、課題、欠点についてレビューする。
データ拡張、説明可能なAIの使用、従来の実験手法とAIの統合についても論じている。
論文 参考訳(メタデータ) (2022-12-08T23:23:39Z) - Trustworthy AI: A Computational Perspective [54.80482955088197]
我々は,信頼に値するAIを実現する上で最も重要な6つの要素,(i)安全とロバスト性,(ii)非差別と公正,(iii)説明可能性,(iv)プライバシー,(v)説明可能性と監査性,(vi)環境ウェルビーイングに焦点をあてる。
各次元について、分類学に基づく最近の関連技術について概観し、実世界のシステムにおけるそれらの応用を概説する。
論文 参考訳(メタデータ) (2021-07-12T14:21:46Z) - Building Bridges: Generative Artworks to Explore AI Ethics [56.058588908294446]
近年,人工知能(AI)技術が社会に与える影響の理解と緩和に重点が置かれている。
倫理的AIシステムの設計における重要な課題は、AIパイプラインには複数の利害関係者があり、それぞれがそれぞれ独自の制約と関心を持っていることだ。
このポジションペーパーは、生成的アートワークが、アクセス可能で強力な教育ツールとして機能することで、この役割を果たすことができる可能性のいくつかを概説する。
論文 参考訳(メタデータ) (2021-06-25T22:31:55Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。