論文の概要: On Controlled Change: Generative AI's Impact on Professional Authority in Journalism
- arxiv url: http://arxiv.org/abs/2510.19792v1
- Date: Wed, 22 Oct 2025 17:27:32 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-25 03:08:16.23083
- Title: On Controlled Change: Generative AI's Impact on Professional Authority in Journalism
- Title(参考訳): 制御された変革について - ジャーナリズムにおける生成AIのプロフェッショナルオーソリティへの影響
- Authors: Tomás Dodds, Wang Ngai Yeung, Claudia Mellado, Mathias-Felipe de Lima-Santos,
- Abstract要約: ジャーナリズムにおける(生成的な)人工知能ツールとシステムの使用は、ジャーナリストの生産率を増加させると予想されている。
本稿では,オランダメディアのジャーナリストが日常業務にAI技術を統合する方法について検討する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Using (generative) artificial intelligence tools and systems in journalism is expected to increase journalists' production rates, transform newsrooms' economic models, and further personalize the audience's news consumption practices. Since its release in 2022, OpenAI's ChatGPT and other large language models have raised the alarms inside news organizations, not only for bringing new challenges to news reporting and fact-checking but also for what these technologies would mean for journalists' professional authority in journalism. This paper examines how journalists in Dutch media manage the integration of AI technologies into their daily routines. Drawing from 13 interviews with editors, journalists, and innovation managers in different news outlets and media companies, we propose the concept of controlled change. as a heuristic to explain how journalists are proactively setting guidelines, experimenting with AI tools, and identifying their limitations and capabilities. Using professional authority as a theoretical framework, we argue that journalists anticipate and integrate AI technologies in a supervised manner and identify three primary mechanisms through which journalists manage this integration: (1) developing adaptive guidelines that align AI use with ethical codes, (2) experimenting with AI technologies to determine their necessity and fit, and (3) critically assessing the capabilities and limitations of AI systems.
- Abstract(参考訳): ジャーナリズムにおける(生成的な)人工知能ツールとシステムの使用は、ジャーナリストの生産率を高め、ニュースルームの経済モデルを変革し、聴衆のニュース消費の実践をさらにパーソナライズすることが期待されている。
2022年にリリースされて以来、OpenAIのChatGPTや他の大規模言語モデルは、ニュース報道やファクトチェックに新たな課題をもたらすだけでなく、ジャーナリストのジャーナリズムにおける専門的な権威にとってこれらの技術が何を意味するかについて、ニュース組織内部の警戒を高めてきた。
本稿では,オランダメディアのジャーナリストが日常業務にAI技術を統合する方法について検討する。
異なる報道機関やメディア企業の編集者、ジャーナリスト、イノベーションマネージャとの13のインタビューから、制御された変革の概念を提案する。
ジャーナリストがどのようにガイドラインを積極的に設定し、AIツールを試行し、その制限と能力を特定するかを説明するためのヒューリスティックとして。
専門家の権威を理論的な枠組みとして利用することで、ジャーナリストはAI技術を監督的な方法で予測し統合し、ジャーナリストがこの統合を管理するための3つの主要なメカニズムを特定できると論じる。
関連論文リスト
- Artificial Intelligence Index Report 2025 [39.08798007138432]
今年のレポートには、AIハードウェアの進化する状況に関する詳細な分析、推論コストの新たな見積が含まれている。
また、責任あるAIプラクティスの企業導入に関する新鮮なデータも紹介します。
AIインデックスは、ニューヨーク・タイムズ、ブルームバーグ、ガーディアンなどの主要メディアで引用されている。
論文 参考訳(メタデータ) (2025-04-08T02:01:37Z) - From Trust to Truth: Actionable policies for the use of AI in fact-checking in Germany and Ukraine [0.081585306387285]
人工知能(AI)の台頭は、ジャーナリズム、ファクトチェック、メディア規制に対する前例のない機会と課題を提示している。
AIは偽情報と闘い、メディアの実践を強化するツールを提供しているが、その規制されていない使用と関連するリスクは明確なポリシーと協力的な努力を必要としている。
この政策論文は、偽情報に対処し、責任あるAI統合を促進することに焦点を当て、ジャーナリズムとファクトチェックにおけるAIの影響について考察する。
論文 参考訳(メタデータ) (2025-03-24T14:34:00Z) - Media and responsible AI governance: a game-theoretic and LLM analysis [61.132523071109354]
本稿では,信頼できるAIシステムを育成する上での,AI開発者,規制当局,ユーザ,メディア間の相互作用について検討する。
進化的ゲーム理論と大言語モデル(LLM)を用いて、異なる規制体制下でこれらのアクター間の戦略的相互作用をモデル化する。
論文 参考訳(メタデータ) (2025-03-12T21:39:38Z) - Bridging the Communication Gap: Evaluating AI Labeling Practices for Trustworthy AI Development [41.64451715899638]
EUエネルギラベルのようなフレームワークにインスパイアされたハイレベルなAIラベルは、AIモデルの特性をより透明にするために提案されている。
本研究は,4つの重要な研究課題に沿った質的なインタビューを通じて,AIラベリングを評価する。
論文 参考訳(メタデータ) (2025-01-21T06:00:14Z) - "It Might be Technically Impressive, But It's Practically Useless to us": Motivations, Practices, Challenges, and Opportunities for Cross-Functional Collaboration around AI within the News Industry [7.568817736131254]
本研究では,ニュース産業におけるAIを中心とした内部的クロスファンクショナルコラボレーションの実践,課題,機会について検討する。
我々は17人のジャーナリスト、6人のAI技術者、3人のAI労働者にインタビューした。
論文 参考訳(メタデータ) (2024-09-18T14:12:01Z) - Willingness to Read AI-Generated News Is Not Driven by Their Perceived Quality [3.036383058306671]
本研究では,AI支援記事とAI生成記事と人為的ニュース記事の認識品質について検討する。
また、これらのニュース記事の生成にAIが関与していることの開示が、彼らとの関わりに影響を及ぼすかどうかについても調査している。
論文 参考訳(メタデータ) (2024-09-05T13:12:16Z) - Guiding the Way: A Comprehensive Examination of AI Guidelines in Global Media [0.0]
本研究は17か国でメディア目的の37のAIガイドラインを分析した。
分析の結果,透明性,説明責任,公正性,プライバシ,ジャーナリスト価値の保存といった重要なテーマが明らかになった。
結果は、これらのガイドラインから生まれる共通原則とベストプラクティスを強調します。
論文 参考訳(メタデータ) (2024-05-07T22:47:56Z) - Building Bridges: Generative Artworks to Explore AI Ethics [56.058588908294446]
近年,人工知能(AI)技術が社会に与える影響の理解と緩和に重点が置かれている。
倫理的AIシステムの設計における重要な課題は、AIパイプラインには複数の利害関係者があり、それぞれがそれぞれ独自の制約と関心を持っていることだ。
このポジションペーパーは、生成的アートワークが、アクセス可能で強力な教育ツールとして機能することで、この役割を果たすことができる可能性のいくつかを概説する。
論文 参考訳(メタデータ) (2021-06-25T22:31:55Z) - The Short Anthropological Guide to the Study of Ethical AI [91.3755431537592]
ショートガイドは、AI倫理と社会科学の紹介と、AIの開発に関する人類学的視点の両方を兼ね備えている。
AIシステムの社会的影響と、これらのシステムがいかにして我々の世界がどのように機能するかを再考するかについての洞察を、この分野に馴染みのない人たちに提供することを目指している。
論文 参考訳(メタデータ) (2020-10-07T12:25:03Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。