論文の概要: Journalists' Perceptions of Artificial Intelligence and Disinformation Risks
- arxiv url: http://arxiv.org/abs/2509.01824v1
- Date: Mon, 01 Sep 2025 23:06:15 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-04 15:17:03.857858
- Title: Journalists' Perceptions of Artificial Intelligence and Disinformation Risks
- Title(参考訳): ジャーナリストの人工知能認識と偽情報リスク
- Authors: Urko Peña-Alonso, Simón Peña-Fernández, Koldobika Meso-Ayerdi,
- Abstract要約: 本研究では、ジャーナリストが人工知能(AI)が偽情報に与える影響について認識する。
バスク地方のジャーナリスト504人が調査を行った。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: This study examines journalists' perceptions of the impact of artificial intelligence (AI) on disinformation, a growing concern in journalism due to the rapid expansion of generative AI and its influence on news production and media organizations. Using a quantitative approach, a structured survey was administered to 504 journalists in the Basque Country, identified through official media directories and with the support of the Basque Association of Journalists. This survey, conducted online and via telephone between May and June 2024, included questions on sociodemographic and professional variables, as well as attitudes toward AI's impact on journalism. The results indicate that a large majority of journalists (89.88%) believe AI will considerably or significantly increase the risks of disinformation, and this perception is consistent across genders and media types, but more pronounced among those with greater professional experience. Statistical analyses reveal a significant association between years of experience and perceived risk, and between AI use and risk perception. The main risks identified are the difficulty in detecting false content and deepfakes, and the risk of obtaining inaccurate or erroneous data. Co-occurrence analysis shows that these risks are often perceived as interconnected. These findings highlight the complex and multifaceted concerns of journalists regarding AI's role in the information ecosystem.
- Abstract(参考訳): 本研究では,人工知能(AI)が情報発信に与える影響に対するジャーナリストの認識,生成AIの急速な拡大によるジャーナリズムへの関心の高まり,ニュース制作やメディア組織への影響について検討する。
定量的なアプローチを用いて、バスク地方の504人のジャーナリストに対して構造化された調査が実施され、公式メディア・ディレクトリやバスクジャーナリスト協会の支援を受けて確認された。
2024年5月から6月にかけて行われたこの調査は、社会デマログラフィーと専門的変数に関する質問や、AIがジャーナリズムに与える影響に対する態度が含まれていた。
その結果、ジャーナリストの大多数(89.88%)は、AIが偽情報のリスクを大幅に増加させると信じており、この認識は性別やメディアの種類によって一致しているが、より専門的な経験を持つ者の間ではより顕著である。
統計的分析は、長年の経験と知覚されるリスク、そしてAIの使用とリスク知覚の間に有意な関連性を示す。
主なリスクは、偽のコンテンツやディープフェイクを検出することの難しさ、不正確なデータや誤データを取得するリスクである。
共起分析は、これらのリスクが相互に関連していると認識されることが多いことを示している。
これらの発見は、情報エコシステムにおけるAIの役割に関するジャーナリストの複雑で多面的な懸念を浮き彫りにしている。
関連論文リスト
- Information Retrieval in the Age of Generative AI: The RGB Model [77.96475639967431]
本稿では,生成型AIツールの利用の増加に伴って生じる複雑な情報ダイナミクスについて,新たな定量的アプローチを提案する。
本稿では,新たなトピックに応答して情報の生成,索引付け,普及を特徴付けるモデルを提案する。
以上の結果から,AI導入の急激なペースとユーザ依存度の増加は,不正確な情報拡散のリスクを増大させる可能性が示唆された。
論文 参考訳(メタデータ) (2025-04-29T10:21:40Z) - Biased AI can Influence Political Decision-Making [64.9461133083473]
本稿では,大言語モデル(LLM)におけるパルチザンバイアスが政治的意見や意思決定に与える影響について検討する。
その結果,党派偏見モデルに曝露した参加者は,LLMの偏見と一致した意見を取り入れ,決定を下す可能性が有意に高いことがわかった。
論文 参考訳(メタデータ) (2024-10-08T22:56:00Z) - The Impact of Knowledge Silos on Responsible AI Practices in Journalism [0.0]
この研究は、ジャーナリズムにおける責任あるAIプラクティスの採用に、知識サイロがどう影響するか、そしてそのようにすることを目的としている。
De Telegraaf, de Volkskrant, the Nederlandse Omroep Stichting, RTL Nederlandで14回の半構造化インタビューを行った。
我々の結果は、ニュース組織のすべての層にまたがって、AIに関する情報を共有するためのより良い構造を構築することの重要性を強調します。
論文 参考訳(メタデータ) (2024-10-02T00:27:01Z) - Willingness to Read AI-Generated News Is Not Driven by Their Perceived Quality [3.036383058306671]
本研究では,AI支援記事とAI生成記事と人為的ニュース記事の認識品質について検討する。
また、これらのニュース記事の生成にAIが関与していることの開示が、彼らとの関わりに影響を及ぼすかどうかについても調査している。
論文 参考訳(メタデータ) (2024-09-05T13:12:16Z) - Particip-AI: A Democratic Surveying Framework for Anticipating Future AI Use Cases, Harms and Benefits [54.648819983899614]
汎用AIは、一般大衆がAIを使用してそのパワーを利用するための障壁を下げたようだ。
本稿では,AI利用事例とその影響を推測し,評価するためのフレームワークであるPartICIP-AIを紹介する。
論文 参考訳(メタデータ) (2024-03-21T19:12:37Z) - Unveiling the Hidden Agenda: Biases in News Reporting and Consumption [59.55900146668931]
イタリアのワクチン論争に関する6年間のデータセットを構築し、物語と選択バイアスを特定するためにベイジアン潜在空間モデルを採用する。
バイアスとエンゲージメントの間に非線形な関係が見られ、極端な位置へのエンゲージメントが高くなった。
Twitter上でのニュース消費の分析は、同様のイデオロギー的な立場のニュースメディアの間で、一般的なオーディエンスを明らかにしている。
論文 参考訳(メタデータ) (2023-01-14T18:58:42Z) - Machine Learning Explanations to Prevent Overtrust in Fake News
Detection [64.46876057393703]
本研究では、ニュースレビュープラットフォームに組み込んだ説明可能なAIアシスタントが、フェイクニュースの拡散と戦う効果について検討する。
我々は、ニュースレビューと共有インターフェースを設計し、ニュース記事のデータセットを作成し、4つの解釈可能なフェイクニュース検出アルゴリズムを訓練する。
説明可能なAIシステムについてより深く理解するために、説明プロセスにおけるユーザエンゲージメント、メンタルモデル、信頼、パフォーマンス対策の相互作用について議論する。
論文 参考訳(メタデータ) (2020-07-24T05:42:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。