論文の概要: How ChatGPT Changed the Media's Narratives on AI: A Semi-Automated Narrative Analysis Through Frame Semantics
- arxiv url: http://arxiv.org/abs/2408.06120v1
- Date: Mon, 12 Aug 2024 13:02:31 GMT
- ステータス: 処理完了
- システム内更新日: 2024-08-13 13:13:27.397141
- Title: How ChatGPT Changed the Media's Narratives on AI: A Semi-Automated Narrative Analysis Through Frame Semantics
- Title(参考訳): ChatGPTがメディアのAIに関する物語をどう変えたか:フレームセマンティックスによる半自動ナラティブ分析
- Authors: Igor Ryazanov, Carl Öhman, Johanna Björklund,
- Abstract要約: 我々は、AIに言及した5つのニュース記事から収集された49,000以上の文のデータセットに対して、混合メソッドのフレームベース分析を行う。
この時期、専門家や政治指導者を中心に議論が盛んに行われている。
データのより深いシフトは、AIが表す脅威の種類と、その品質を示していることを示唆している。
- 参考スコア(独自算出の注目度): 0.25822445089477464
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The recent explosion of attention to AI is arguably one of the biggest in the technology's media coverage. To investigate the effects it has on the discourse, we perform a mixed-method frame semantics-based analysis on a dataset of more than 49,000 sentences collected from 5846 news articles that mention AI. The dataset covers the twelve-month period centred around the launch of OpenAI's chatbot ChatGPT and is collected from the most visited open-access English-language news publishers. Our findings indicate that during the half year succeeding the launch, media attention rose tenfold$\unicode{x2014}$from already historically high levels. During this period, discourse has become increasingly centred around experts and political leaders, and AI has become more closely associated with dangers and risks. A deeper review of the data also suggests a qualitative shift in the types of threat AI is thought to represent, as well as the anthropomorphic qualities ascribed to it.
- Abstract(参考訳): 最近のAIへの注目の爆発は、間違いなくテクノロジーのメディア報道で最大のものの一つだ。
本研究は,AIに言及した5846のニュース記事から収集した49,000以上の文のデータセットに対して,複合手法のフレームセマンティクスに基づく分析を行う。
データセットは、OpenAIのチャットボットChatGPTのローンチを中心とした12ヶ月をカバーし、最もアクセスしやすい英語ニュースパブリッシャから収集される。
以上の結果から,ローンチ後半年でメディアの注目度が10倍に上昇したことが示唆された。
この期間、言論は専門家や政治指導者を中心になってきており、AIは危険やリスクと密接に関連している。
データのより深いレビューは、AIが表す脅威の種類の質的な変化と、それに関連する人為的特性も示唆している。
関連論文リスト
- Mapping AI Ethics Narratives: Evidence from Twitter Discourse Between 2015 and 2022 [6.518657832967228]
この論文でTwitterは、AI倫理に関する論議を探求するオンライン公開の場として選ばれている。
研究フレームワークは、Twitter上のAI倫理に関する言論を一貫性のある読みやすい物語に変換する方法を示すために提案されている。
論文 参考訳(メタデータ) (2024-06-20T09:08:44Z) - Artificial Intelligence Index Report 2024 [15.531650534547945]
AI Indexのレポートでは、人工知能(AI)に関連するデータを追跡、照合、蒸留、可視化している。
AIインデックスは、AIに関するデータと洞察の最も信頼性が高く権威のある情報源の1つとして、世界的に認識されている。
今年のエディションは、サイズ、スケール、スコープのすべての旧版を上回り、AIが私たちの人生で持つ重要性が増していることを反映している。
論文 参考訳(メタデータ) (2024-05-29T20:59:57Z) - Mapping ChatGPT in Mainstream Media to Unravel Jobs and Diversity
Challenges: Early Quantitative Insights through Sentiment Analysis and Word
Frequency Analysis [0.0]
本稿では,テキストマイニングとNLPによる初期傾向と感情の定量的分析を行う。
感情分析の結果,ChatGPTと人工知能は主流メディアでは否定的よりも肯定的であった。
この記事では、主流メディアからの多様性と仕事上の課題のヘヘモニックな排除において、Big TechとBig Mediaのパワー構造と共謀について批判的な分析を行う。
論文 参考訳(メタデータ) (2023-05-25T15:10:51Z) - One Small Step for Generative AI, One Giant Leap for AGI: A Complete
Survey on ChatGPT in AIGC Era [95.2284704286191]
GPT-4(別名ChatGPT Plus)は、生成型AI(GAI)の1つの小さなステップであるが、人工知能(AGI)の1つの大きな飛躍である。
2022年11月に公式リリースされて以来、ChatGPTは急速に多くのユーザーを惹きつけてきた。
この研究は、ChatGPTを基盤技術、アプリケーション、課題に関する包括的なレビューで調査した初めてのものである。
論文 参考訳(メタデータ) (2023-04-04T06:22:09Z) - A Complete Survey on Generative AI (AIGC): Is ChatGPT from GPT-4 to
GPT-5 All You Need? [112.12974778019304]
生成AI(AIGC、つまりAI生成コンテンツ)は、テキスト、画像、その他を分析、作成する能力により、あらゆる場所で話題を呼んだ。
純粋な分析から創造へと移行するAIの時代において、ChatGPTは最新の言語モデルであるGPT-4とともに、多くのAIGCタスクからなるツールである。
本研究は,テキスト,画像,ビデオ,3Dコンテンツなど,出力タイプに基づいたAIGCタスクの技術的開発に焦点を当てている。
論文 参考訳(メタデータ) (2023-03-21T10:09:47Z) - The AI Index 2022 Annual Report [22.73860407733525]
AI Index Reportは、人工知能に関連するデータを追跡、照合、蒸留、可視化する。
そのミッションは、政策立案者、研究者、幹部、ジャーナリスト、そして一般大衆に偏見のない、厳格に審査された、グローバルにソースされたデータを提供することだ。
このレポートは、AIに関するデータと洞察の最も信頼性が高く権威のある情報源になることを目標としている。
論文 参考訳(メタデータ) (2022-05-02T20:59:33Z) - Automatic Evaluation and Moderation of Open-domain Dialogue Systems [59.305712262126264]
研究者が悩む長きにわたる課題は、効果的な自動評価指標の欠如である。
本稿では, 対話システム技術チャレンジ10(DSTC10)におけるトラック5で得られたデータ, ベースライン, 結果について述べる。
論文 参考訳(メタデータ) (2021-11-03T10:08:05Z) - A User-Centred Framework for Explainable Artificial Intelligence in
Human-Robot Interaction [70.11080854486953]
本稿では,XAIのソーシャル・インタラクティブな側面に着目したユーザ中心型フレームワークを提案する。
このフレームワークは、エキスパートでないユーザのために考えられた対話型XAIソリューションのための構造を提供することを目的としている。
論文 参考訳(メタデータ) (2021-09-27T09:56:23Z) - The Who in XAI: How AI Background Shapes Perceptions of AI Explanations [61.49776160925216]
私たちは、2つの異なるグループ、つまりAIのバックグラウンドを持つ人々といない人たちの、異なるタイプのAI説明に対する理解について、混合手法による研究を行います。
その結果,(1) 両群は異なる理由から不合理な数に対する信頼を示し,(2) それぞれの群は意図した設計以上の異なる説明に価値を見出した。
論文 参考訳(メタデータ) (2021-07-28T17:32:04Z) - The Threat of Offensive AI to Organizations [52.011307264694665]
この調査は、組織に対する攻撃的なAIの脅威を調査する。
まず、AIが敵の方法、戦略、目標、および全体的な攻撃モデルをどのように変えるかについて議論する。
そして、文献レビューを通じて、敵が攻撃を強化するために使用できる33の攻撃的AI能力を特定します。
論文 参考訳(メタデータ) (2021-06-30T01:03:28Z) - LioNets: A Neural-Specific Local Interpretation Technique Exploiting
Penultimate Layer Information [6.570220157893279]
解釈可能な機械学習(IML)は研究の緊急のトピックである。
本稿では,テキストデータと時系列データに適用される局所的,神経特異的な解釈プロセスに焦点を当てる。
論文 参考訳(メタデータ) (2021-04-13T09:39:33Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。