論文の概要: Mapping ChatGPT in Mainstream Media to Unravel Jobs and Diversity
Challenges: Early Quantitative Insights through Sentiment Analysis and Word
Frequency Analysis
- arxiv url: http://arxiv.org/abs/2305.18340v2
- Date: Thu, 3 Aug 2023 19:21:02 GMT
- ステータス: 処理完了
- システム内更新日: 2023-08-07 15:40:47.392872
- Title: Mapping ChatGPT in Mainstream Media to Unravel Jobs and Diversity
Challenges: Early Quantitative Insights through Sentiment Analysis and Word
Frequency Analysis
- Title(参考訳): 主流メディアにおけるチャットGPTの求人・多様性問題へのマッピング:感性分析と単語頻度分析による早期定量化
- Authors: Maya Karanouh
- Abstract要約: 本稿では,テキストマイニングとNLPによる初期傾向と感情の定量的分析を行う。
感情分析の結果,ChatGPTと人工知能は主流メディアでは否定的よりも肯定的であった。
この記事では、主流メディアからの多様性と仕事上の課題のヘヘモニックな排除において、Big TechとBig Mediaのパワー構造と共謀について批判的な分析を行う。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The exponential growth in user acquisition and popularity of OpenAIs ChatGPT,
an artificial intelligence(AI) powered chatbot, was accompanied by widespread
mainstream media coverage. This article presents a quantitative data analysis
of the early trends and sentiments revealed by conducting text mining and NLP
methods onto a corpus of 10,902 mainstream news headlines related to the
subject of ChatGPT and artificial intelligence, from the launch of ChatGPT in
November 2022 to March 2023. The findings revealed in sentiment analysis,
ChatGPT and artificial intelligence, were perceived more positively than
negatively in the mainstream media. In regards to word frequency results, over
sixty-five percent of the top frequency words were focused on Big Tech issues
and actors while topics such as jobs, diversity, ethics, copyright, gender and
women were poorly represented or completely absent and only accounted for six
percent of the total corpus. This article is a critical analysis into the power
structures and collusions between Big Tech and Big Media in their hegemonic
exclusion of diversity and job challenges from mainstream media.
- Abstract(参考訳): ユーザ獲得の指数関数的な増加と、人工知能(AI)を搭載したチャットボットであるOpenAIs ChatGPTの人気には、メディアが広く報道された。
本稿では,2022年11月のchatgptの開始から2023年3月にかけて,テキストマイニングとnlp手法を,チャットgptと人工知能に関連する主要ニュース見出し10,902のコーパスに適用して,初期の傾向と感情を定量的に分析した。
感情分析の結果,ChatGPTと人工知能は主流メディアでは否定的よりも肯定的であった。
単語の頻度については、トップ周波数の単語の60%以上が大手テック問題や俳優に焦点をあて、仕事、多様性、倫理、著作権、性別、女性といった話題は表現力に乏しく、コーパス全体の6%しか占めていなかった。
この記事では、主流メディアからの多様性と仕事上の課題のヘヘモニックな排除において、Big TechとBig Mediaのパワー構造と共謀について批判的な分析を行う。
関連論文リスト
- Television Discourse Decoded: Comprehensive Multimodal Analytics at
Scale [6.264288257854196]
我々は、インドでのプライムタイムニュース討論番組に焦点をあてて、テレビ放送された討論を分析するという複雑な課題に取り組む。
従来はテキストのみに頼っていたが、これらの議論のマルチメディアの本質をとらえるには不十分であった。
大規模マルチメディア分析に先進的なコンピュータビジョンと音声テキスト技術を用いる。
論文 参考訳(メタデータ) (2024-02-20T01:20:31Z) - GPT-4V(ision) as A Social Media Analysis Engine [77.23394183063238]
本稿では,GPT-4Vのソーシャルマルチメディア分析能力について考察する。
我々は、感情分析、ヘイトスピーチ検出、フェイクニュース識別、人口推定、政治的イデオロギー検出を含む5つの代表的なタスクを選択する。
GPT-4Vはこれらのタスクにおいて顕著な効果を示し、画像とテキストのペアの理解、文脈と文化の認識、広義のコモンセンス知識などの強みを示している。
論文 参考訳(メタデータ) (2023-11-13T18:36:50Z) - Unsupervised Sentiment Analysis of Plastic Surgery Social Media Posts [91.3755431537592]
ソーシャルメディアプラットフォームにまたがる膨大なユーザー投稿は、主に人工知能(AI)のユースケースに使われていない。
自然言語処理(NLP)は、コーパス(corpora)として知られるドキュメントの体系を利用して、人間のような言語理解でコンピュータを訓練するAIのサブフィールドである。
本研究は, 教師なし解析の応用により, コンピュータがプラスティック手術に対する否定的, 肯定的, 中立的なユーザ感情を予測できることを示した。
論文 参考訳(メタデータ) (2023-07-05T20:16:20Z) - Public Attitudes Toward ChatGPT on Twitter: Sentiments, Topics, and
Occupations [1.6466986427682635]
感情分析などの自然言語処理技術を適用し,ChatGPTに対する公衆の態度を検討した。
私たちの感情分析の結果、全体の感情は肯定的であり、ネガティブな感情は時間の経過とともに減少していたことが示唆された。
私たちのトピックモデルは、最も人気のあるトピックが、教育、バード、検索エンジン、OpenAI、マーケティング、サイバーセキュリティであることを示している。
論文 参考訳(メタデータ) (2023-06-22T15:10:18Z) - Leveraging ChatGPT As Text Annotation Tool For Sentiment Analysis [6.596002578395151]
ChatGPTはOpenAIの新製品で、最も人気のあるAI製品として登場した。
本研究では、さまざまな感情分析タスクのためのデータラベリングツールとしてのChatGPTについて検討する。
論文 参考訳(メタデータ) (2023-06-18T12:20:42Z) - ManiTweet: A New Benchmark for Identifying Manipulation of News on
Social Media [53.51665032295087]
ソーシャルメディア上でのニュースの操作を識別し,ソーシャルメディア投稿の操作を検出し,操作された情報や挿入された情報を特定することを目的とした,新しいタスクを提案する。
この課題を研究するために,データ収集スキーマを提案し,3.6K対のツイートとそれに対応する記事からなるManiTweetと呼ばれるデータセットをキュレートした。
我々の分析では、このタスクは非常に難しいことを示し、大きな言語モデル(LLM)は不満足なパフォーマンスをもたらす。
論文 参考訳(メタデータ) (2023-05-23T16:40:07Z) - To ChatGPT, or not to ChatGPT: That is the question! [78.407861566006]
本研究は,ChatGPT検出における最新の手法を包括的かつ現代的に評価するものである。
我々は、ChatGPTと人間からのプロンプトからなるベンチマークデータセットをキュレートし、医療、オープンQ&A、ファイナンスドメインからの多様な質問を含む。
評価の結果,既存の手法ではChatGPT生成内容を効果的に検出できないことがわかった。
論文 参考訳(メタデータ) (2023-04-04T03:04:28Z) - Bias or Diversity? Unraveling Fine-Grained Thematic Discrepancy in U.S.
News Headlines [63.52264764099532]
われわれは、2014年から2022年までの米国の主要メディアから、180万件のニュース記事の大規模なデータセットを使用している。
我々は、国内政治、経済問題、社会問題、外交の4つの主要なトピックに関連する、きめ細かいテーマの相違を定量化する。
以上の結果から,国内政治や社会問題においては,一定のメディア偏見が原因であることが示唆された。
論文 参考訳(メタデータ) (2023-03-28T03:31:37Z) - ChatGPT: A Meta-Analysis after 2.5 Months [16.62394237011141]
我々は30万以上のツイートと150以上の科学論文を分析し、ChatGPTがどのように認識され、議論されているかを調べる。
以上の結果から,ChatGPTは,ソーシャルメディアにおいて肯定的な感情や快楽の感情が支配的であり,品質の高いものと見なされている。
論文 参考訳(メタデータ) (2023-02-20T15:43:22Z) - A Categorical Archive of ChatGPT Failures [47.64219291655723]
OpenAIが開発したChatGPTは、大量のデータを使って訓練され、人間の会話をシミュレートしている。
それは、広範囲の人間の問い合わせに効果的に答える能力のために、大きな注目を集めている。
しかし、ChatGPTの失敗の包括的分析は欠落しており、これが本研究の焦点となっている。
論文 参考訳(メタデータ) (2023-02-06T04:21:59Z) - "I think this is the most disruptive technology": Exploring Sentiments
of ChatGPT Early Adopters using Twitter Data [0.0]
初期のChatGPTユーザーのツイート10,732件を用いて混合手法による調査を行った。
アーリーアダプターの大多数は、ソフトウェア開発への混乱、エンターテイメント、創造性の行使といったトピックに関する圧倒的な肯定的な感情を表明している。
ChatGPTの誤用の可能性などに関して懸念を表明しているのは、ごく一部のユーザだけだった。
論文 参考訳(メタデータ) (2022-12-12T12:41:24Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。