論文の概要: Can ChatGPT predict article retraction based on Twitter mentions?
- arxiv url: http://arxiv.org/abs/2403.16851v1
- Date: Mon, 25 Mar 2024 15:15:09 GMT
- ステータス: 処理完了
- システム内更新日: 2024-03-27 20:54:11.363499
- Title: Can ChatGPT predict article retraction based on Twitter mentions?
- Title(参考訳): ChatGPTはTwitterの言及に基づいて記事のリトラクションを予測することができるか?
- Authors: Er-Te Zheng, Hui-Zhen Fu, Zhichao Fang,
- Abstract要約: 本研究は、Twitterがリトラクション記事に言及していることがリトラクション記事の潜在的な問題を引き起こすかどうかを調査する。
記事のリトラクションの予測におけるTwitterの言及の有効性は,4つの予測方法によって評価される。
- 参考スコア(独自算出の注目度): 0.8520624117635328
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Detecting problematic research articles timely is a vital task. This study explores whether Twitter mentions of retracted articles can signal potential problems with the articles prior to retraction, thereby playing a role in predicting future retraction of problematic articles. A dataset comprising 3,505 retracted articles and their associated Twitter mentions is analyzed, alongside 3,505 non-retracted articles with similar characteristics obtained using the Coarsened Exact Matching method. The effectiveness of Twitter mentions in predicting article retraction is evaluated by four prediction methods, including manual labelling, keyword identification, machine learning models, and ChatGPT. Manual labelling results indicate that there are indeed retracted articles with their Twitter mentions containing recognizable evidence signaling problems before retraction, although they represent only a limited share of all retracted articles with Twitter mention data (approximately 16%). Using the manual labelling results as the baseline, ChatGPT demonstrates superior performance compared to other methods, implying its potential in assisting human judgment for predicting article retraction. This study uncovers both the potential and limitation of social media events as an early warning system for article retraction, shedding light on a potential application of generative artificial intelligence in promoting research integrity.
- Abstract(参考訳): 問題のある研究項目をタイムリーに検出することは重要な課題である。
本研究は、Twitterが記事の削除に先立って、記事の削除が潜在的な問題を引き起こすかどうかを考察し、問題のある記事の削除を予測する役割を担っている。
3,505個の抽出された記事とその関連Twitter言及からなるデータセットを、Coarsened Exact Matching法による類似特性を持つ3,505個の非抽出記事とともに分析する。
記事のリトラクションの予測におけるTwitterの言及の有効性は、手動ラベリング、キーワード識別、機械学習モデル、ChatGPTなどの4つの予測方法によって評価されている。
手動ラベリングの結果は、Twitterが言及した記事に、削除前に問題を示す明らかな証拠が含まれていることを示唆しているが、Twitterが言及した全記事(約16%)のごく一部しか表示していないことを示唆している。
手動ラベリングの結果をベースラインとして、ChatGPTは他の方法と比較して優れた性能を示し、記事の削除を予測するための人間の判断を支援する可能性を示唆している。
本研究は, 論文削除の早期警告システムとして, ソーシャルメディアイベントの可能性と限界を明らかにし, 研究の完全性を促進するために, 生成人工知能の潜在的な応用に光を当てるものである。
関連論文リスト
- Public interest in science or bots? Selective amplification of scientific articles on Twitter [1.1606619391009658]
Twitter APIとBotometer APIを通じて収集されたデータと組み合わせて、Altmetricデータセットを使用しました。
論文の異なる特徴に基づいて,ボット活動の可能性について分析した。
このデータセットを使用して機械学習モデルをトレーニングし、任意の記事において可能なボットアクティビティを特定しました。
論文 参考訳(メタデータ) (2024-09-28T07:48:44Z) - Unsupervised Sentiment Analysis of Plastic Surgery Social Media Posts [91.3755431537592]
ソーシャルメディアプラットフォームにまたがる膨大なユーザー投稿は、主に人工知能(AI)のユースケースに使われていない。
自然言語処理(NLP)は、コーパス(corpora)として知られるドキュメントの体系を利用して、人間のような言語理解でコンピュータを訓練するAIのサブフィールドである。
本研究は, 教師なし解析の応用により, コンピュータがプラスティック手術に対する否定的, 肯定的, 中立的なユーザ感情を予測できることを示した。
論文 参考訳(メタデータ) (2023-07-05T20:16:20Z) - Measuring the Effect of Influential Messages on Varying Personas [67.1149173905004]
我々は、ニュースメッセージを見る際にペルソナが持つ可能性のある応答を推定するために、ニュースメディア向けのペルソナに対するレスポンス予測という新しいタスクを提示する。
提案課題は,モデルにパーソナライズを導入するだけでなく,各応答の感情極性と強度も予測する。
これにより、ペルソナの精神状態に関するより正確で包括的な推測が可能になる。
論文 参考訳(メタデータ) (2023-05-25T21:01:00Z) - ManiTweet: A New Benchmark for Identifying Manipulation of News on Social Media [74.93847489218008]
ソーシャルメディア上でのニュースの操作を識別し,ソーシャルメディア投稿の操作を検出し,操作された情報や挿入された情報を特定することを目的とした,新しいタスクを提案する。
この課題を研究するために,データ収集スキーマを提案し,3.6K対のツイートとそれに対応する記事からなるManiTweetと呼ばれるデータセットをキュレートした。
我々の分析では、このタスクは非常に難しいことを示し、大きな言語モデル(LLM)は不満足なパフォーマンスをもたらす。
論文 参考訳(メタデータ) (2023-05-23T16:40:07Z) - Predicting Seriousness of Injury in a Traffic Accident: A New Imbalanced
Dataset and Benchmark [62.997667081978825]
本稿では,交通事故における傷害の重大性を予測するために,機械学習アルゴリズムの性能を評価する新しいデータセットを提案する。
データセットは、英国運輸省から公開されているデータセットを集約することで作成される。
論文 参考訳(メタデータ) (2022-05-20T21:15:26Z) - You Mostly Walk Alone: Analyzing Feature Attribution in Trajectory
Prediction [52.442129609979794]
軌道予測のための最近の深層学習手法は有望な性能を示す。
そのようなブラックボックスモデルが実際にどのモデルを予測するために使うのかは、まだ不明である。
本稿では,モデル性能に対する異なるキューの貢献度を定量化する手法を提案する。
論文 参考訳(メタデータ) (2021-10-11T14:24:15Z) - Misleading the Covid-19 vaccination discourse on Twitter: An exploratory
study of infodemic around the pandemic [0.45593531937154413]
我々は7ヶ月(2020年9月~2021年3月)のコビッドウイルスワクチン接種に関連する中規模のツイートコーパス(20万件)を収集する。
Transfer Learningのアプローチに従えば、事前訓練されたTransformerベースのXLNetモデルを使用して、ツイートをミスリーディングまたは非ミスリーディングに分類する。
我々は、自然に誤解を招くコーパスのツイートの特徴と非誤解を招くツイートの特徴を調査・対比するためにこの手法を構築した。
いくつかのMLモデルは、最大90%の精度で予測に使用され、各特徴の重要性は、SHAP Explainable AI (X)を用いて説明される。
論文 参考訳(メタデータ) (2021-08-16T17:02:18Z) - Understanding Information Spreading Mechanisms During COVID-19 Pandemic
by Analyzing the Impact of Tweet Text and User Features for Retweet
Prediction [6.658785818853953]
新型コロナウイルスは世界の経済や、ほぼすべての人々の日常生活に影響を与えている。
ソーシャルメディアプラットフォームは、情報を共有できる他のユーザーと情報を共有できる。
CNNとRNNをベースとした2つのモデルを提案し、これらのモデルの性能を公開のTweetsCOV19データセットで評価する。
論文 参考訳(メタデータ) (2021-05-26T15:55:58Z) - Combining exogenous and endogenous signals with a semi-supervised
co-attention network for early detection of COVID-19 fake tweets [14.771202995527315]
新型コロナウイルス(COVID-19)の間、誤報のあるツイートは早期に警告され、中立化され、被害を軽減する必要がある。
偽ニュースを早期に検出する既存の方法のほとんどは、大きなラベル付きツイートに十分な伝搬情報を持っていると仮定している。
我々は、ツイートに関連する内因性および内因性信号を活用する新しい早期検出モデルENDEMICを提案する。
論文 参考訳(メタデータ) (2021-04-12T10:01:44Z) - Detecting Cross-Modal Inconsistency to Defend Against Neural Fake News [57.9843300852526]
我々は、画像やキャプションを含む機械生成ニュースに対して、より現実的で挑戦的な対策を導入する。
敵が悪用できる可能性のある弱点を特定するために、4つの異なる種類の生成された記事からなるNeuralNewsデータセットを作成します。
ユーザ実験から得られた貴重な知見に加えて,視覚的意味的不整合の検出にもとづく比較的効果的なアプローチを提案する。
論文 参考訳(メタデータ) (2020-09-16T14:13:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。