論文の概要: Full Disclosure, Less Trust? How the Level of Detail about AI Use in News Writing Affects Readers' Trust
- arxiv url: http://arxiv.org/abs/2601.09620v1
- Date: Wed, 14 Jan 2026 16:45:45 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-15 18:59:20.47419
- Title: Full Disclosure, Less Trust? How the Level of Detail about AI Use in News Writing Affects Readers' Trust
- Title(参考訳): 完全な情報開示と信頼の欠如? ニュース執筆におけるAI利用に関する詳細レベルが読者の信頼にどのように影響するか
- Authors: Pooja Prajod, Hannes Cools, Thomas Röggla, Karthikeya Puttur Venkatraj, Amber Kusters, Alia ElKattan, Pablo Cesar, Abdallah El Ali,
- Abstract要約: 発見によると、すべてのAI開示が透明性のジレンマを引き起こすのではなく、より透明性を求める読者の欲求とAI支援ニュースコンテンツに対する信頼とのトレードオフを反映している。
- 参考スコア(独自算出の注目度): 10.22272389430846
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: As artificial intelligence (AI) is increasingly integrated into news production, calls for transparency about the use of AI have gained considerable traction. Recent studies suggest that AI disclosures can lead to a ``transparency dilemma'', where disclosure reduces readers' trust. However, little is known about how the \textit{level of detail} in AI disclosures influences trust and contributes to this dilemma within the news context. In this 3$\times$2$\times$2 mixed factorial study with 40 participants, we investigate how three levels of AI disclosures (none, one-line, detailed) across two types of news (politics and lifestyle) and two levels of AI involvement (low and high) affect news readers' trust. We measured trust using the News Media Trust questionnaire, along with two decision behaviors: source-checking and subscription decisions. Questionnaire responses and subscription rates showed a decline in trust only for detailed AI disclosures, whereas source-checking behavior increased for both one-line and detailed disclosures, with the effect being more pronounced for detailed disclosures. Insights from semi-structured interviews suggest that source-checking behavior was primarily driven by interest in the topic, followed by trust, whereas trust was the main factor influencing subscription decisions. Around two-thirds of participants expressed a preference for detailed disclosures, while most participants who preferred one-line indicated a need for detail-on-demand disclosure formats. Our findings show that not all AI disclosures lead to a transparency dilemma, but instead reflect a trade-off between readers' desire for more transparency and their trust in AI-assisted news content.
- Abstract(参考訳): 人工知能(AI)がニュース制作に統合されるにつれ、AIの使用に関する透明性を求める声が高まりつつある。
近年の研究では、AIの開示が「透明性ジレンマ」につながることが示唆されており、開示は読者の信頼を低下させる。
しかし、AI開示におけるtextit{level of detail}が信頼にどのように影響し、ニュースコンテキスト内のこのジレンマに寄与するかについては、ほとんど分かっていない。
この3$\times$2$\times$2の混合要因分析では,2種類のニュース(政治とライフスタイル)と2レベルのAI関与(低と高)が,ニュース読者の信頼にどのように影響するかを検討した。
我々は、ニュースメディアトラストのアンケートによる信頼度と、ソースチェックとサブスクリプション決定の2つの意思決定行動を測定した。
質問紙回答と定期購読率は、詳細なAI開示でのみ信頼が低下する一方、ソースチェック行動は1行および詳細な開示で増加し、詳細な開示ではその効果がより顕著になった。
半構造化インタビューからの洞察は、ソースチェックの行動は、主にこのトピックへの関心が引き起こしたもので、信頼がサブスクリプション決定に影響を及ぼす主要な要因であったことを示唆している。
参加者の約3分の2は詳細な開示を好み、一方1行を希望する参加者の多くは、オンデマンドでの詳細な開示フォーマットの必要性を示した。
私たちの調査結果は、すべてのAI開示が透明性のジレンマにつながるのではなく、より透明性を求める読者の欲求とAI支援ニュースコンテンツに対する信頼とのトレードオフを反映していることを示している。
関連論文リスト
- Hide or Highlight: Understanding the Impact of Factuality Expression on User Trust [1.2478643689100954]
我々は、事実性評価を伴うAI生成出力を開示する4つの異なる方法を試した。
その結果,不透明であいまいな戦略が,回答の品質を維持しながら,信頼度を高めていることがわかった。
論文 参考訳(メタデータ) (2025-08-09T20:45:21Z) - Willingness to Read AI-Generated News Is Not Driven by Their Perceived Quality [3.036383058306671]
本研究では,AI支援記事とAI生成記事と人為的ニュース記事の認識品質について検討する。
また、これらのニュース記事の生成にAIが関与していることの開示が、彼らとの関わりに影響を及ぼすかどうかについても調査している。
論文 参考訳(メタデータ) (2024-09-05T13:12:16Z) - Detect, Investigate, Judge and Determine: A Knowledge-guided Framework for Few-shot Fake News Detection [53.41813030290324]
Few-Shot Fake News Detection (FS-FND) は、極めて低リソースのシナリオにおいて、非正確なニュースを実際のニュースと区別することを目的としている。
ソーシャルメディア上でのフェイクニュースの拡散や有害な影響により、このタスクは注目を集めている。
本稿では,内外からLLMを増強するDual-perspective Knowledge-Guided Fake News Detection (DKFND)モデルを提案する。
論文 参考訳(メタデータ) (2024-07-12T03:15:01Z) - Formalizing Trust in Artificial Intelligence: Prerequisites, Causes and
Goals of Human Trust in AI [55.4046755826066]
我々は、社会学の対人信頼(すなわち、人間の信頼)に着想を得た信頼のモデルについて議論する。
ユーザとAIの間の信頼は、暗黙的あるいは明示的な契約が保持する信頼である。
我々は、信頼できるAIの設計方法、信頼が浮かび上がったかどうか、保証されているかどうかを評価する方法について論じる。
論文 参考訳(メタデータ) (2020-10-15T03:07:23Z) - Machine Learning Explanations to Prevent Overtrust in Fake News
Detection [64.46876057393703]
本研究では、ニュースレビュープラットフォームに組み込んだ説明可能なAIアシスタントが、フェイクニュースの拡散と戦う効果について検討する。
我々は、ニュースレビューと共有インターフェースを設計し、ニュース記事のデータセットを作成し、4つの解釈可能なフェイクニュース検出アルゴリズムを訓練する。
説明可能なAIシステムについてより深く理解するために、説明プロセスにおけるユーザエンゲージメント、メンタルモデル、信頼、パフォーマンス対策の相互作用について議論する。
論文 参考訳(メタデータ) (2020-07-24T05:42:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。