論文の概要: Can ChatGPT predict article retraction based on Twitter mentions?
- arxiv url: http://arxiv.org/abs/2403.16851v1
- Date: Mon, 25 Mar 2024 15:15:09 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-03-27 20:54:11.363499
- Title: Can ChatGPT predict article retraction based on Twitter mentions?
- Title(参考訳): ChatGPTはTwitterの言及に基づいて記事のリトラクションを予測することができるか?
- Authors: Er-Te Zheng, Hui-Zhen Fu, Zhichao Fang,
- Abstract要約: 本研究は、Twitterがリトラクション記事に言及していることがリトラクション記事の潜在的な問題を引き起こすかどうかを調査する。
記事のリトラクションの予測におけるTwitterの言及の有効性は,4つの予測方法によって評価される。
- 参考スコア(独自算出の注目度): 0.8520624117635328
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Detecting problematic research articles timely is a vital task. This study explores whether Twitter mentions of retracted articles can signal potential problems with the articles prior to retraction, thereby playing a role in predicting future retraction of problematic articles. A dataset comprising 3,505 retracted articles and their associated Twitter mentions is analyzed, alongside 3,505 non-retracted articles with similar characteristics obtained using the Coarsened Exact Matching method. The effectiveness of Twitter mentions in predicting article retraction is evaluated by four prediction methods, including manual labelling, keyword identification, machine learning models, and ChatGPT. Manual labelling results indicate that there are indeed retracted articles with their Twitter mentions containing recognizable evidence signaling problems before retraction, although they represent only a limited share of all retracted articles with Twitter mention data (approximately 16%). Using the manual labelling results as the baseline, ChatGPT demonstrates superior performance compared to other methods, implying its potential in assisting human judgment for predicting article retraction. This study uncovers both the potential and limitation of social media events as an early warning system for article retraction, shedding light on a potential application of generative artificial intelligence in promoting research integrity.
- Abstract(参考訳): 問題のある研究項目をタイムリーに検出することは重要な課題である。
本研究は、Twitterが記事の削除に先立って、記事の削除が潜在的な問題を引き起こすかどうかを考察し、問題のある記事の削除を予測する役割を担っている。
3,505個の抽出された記事とその関連Twitter言及からなるデータセットを、Coarsened Exact Matching法による類似特性を持つ3,505個の非抽出記事とともに分析する。
記事のリトラクションの予測におけるTwitterの言及の有効性は、手動ラベリング、キーワード識別、機械学習モデル、ChatGPTなどの4つの予測方法によって評価されている。
手動ラベリングの結果は、Twitterが言及した記事に、削除前に問題を示す明らかな証拠が含まれていることを示唆しているが、Twitterが言及した全記事(約16%)のごく一部しか表示していないことを示唆している。
手動ラベリングの結果をベースラインとして、ChatGPTは他の方法と比較して優れた性能を示し、記事の削除を予測するための人間の判断を支援する可能性を示唆している。
本研究は, 論文削除の早期警告システムとして, ソーシャルメディアイベントの可能性と限界を明らかにし, 研究の完全性を促進するために, 生成人工知能の潜在的な応用に光を当てるものである。
関連論文リスト
- Eroding the Truth-Default: A Causal Analysis of Human Susceptibility to Foundation Model Hallucinations and Disinformation in the Wild [47.03825808787752]
フェイクニュースの親しみ」は、被曝が人間の差別者に対する敵対的訓練として機能する可能性を示唆する中間者候補として出現する。
これらの結果から,「プレバンキング」介入は,人口層区分よりも認知源モニタリングを対象とすべきであることが示唆された。
論文 参考訳(メタデータ) (2026-01-30T11:49:58Z) - CoCoNUTS: Concentrating on Content while Neglecting Uninformative Textual Styles for AI-Generated Peer Review Detection [60.52240468810558]
我々は、AI生成ピアレビューの詳細なデータセットの上に構築されたコンテンツ指向ベンチマークであるCoCoNUTSを紹介する。
また、マルチタスク学習フレームワークを介してAIレビュー検出を行うCoCoDetを開発し、レビューコンテンツにおけるAIのより正確で堅牢な検出を実現する。
論文 参考訳(メタデータ) (2025-08-28T06:03:11Z) - Paper Summary Attack: Jailbreaking LLMs through LLM Safety Papers [61.57691030102618]
我々は新しいジェイルブレイク手法であるペーパー・サプリメント・アタック(llmnamePSA)を提案する。
攻撃に焦点をあてたLLM安全紙からコンテンツを合成し、敵のプロンプトテンプレートを構築する。
実験では、ベースLLMだけでなく、Deepseek-R1のような最先端の推論モデルにも重大な脆弱性がある。
論文 参考訳(メタデータ) (2025-07-17T18:33:50Z) - When Detection Fails: The Power of Fine-Tuned Models to Generate Human-Like Social Media Text [13.14749943120523]
ソーシャルメディアは、オンライン・インフルエンス・キャンペーンにおいて重要な攻撃源となっている。
我々は、オープンソース、クローズドソース、微調整されたLLMの組み合わせから、505,159のAI生成ソーシャルメディアポストのデータセットを作成します。
典型的な研究仮定の下ではポストを検出できるが、攻撃者が細調整されたモデルを公開しないというより現実的な仮定の下では、検出可能性は劇的に低下する。
論文 参考訳(メタデータ) (2025-06-11T17:51:28Z) - Benchmarking Reasoning Robustness in Large Language Models [76.79744000300363]
新規データや不完全データでは,性能が著しく低下することがわかった。
これらの結果は、厳密な論理的推論に対するリコールへの依存を浮き彫りにした。
本稿では,情報不足によって引き起こされる幻覚を利用して推論ギャップを明らかにする,Math-RoBと呼ばれる新しいベンチマークを提案する。
論文 参考訳(メタデータ) (2025-03-06T15:36:06Z) - Vulnerability of LLMs to Vertically Aligned Text Manipulations [108.6908427615402]
大規模言語モデル(LLM)は、テキスト分類タスクの実行に非常に効果的である。
エンコーダベースのモデルのために単語を垂直に整列させるような入力形式を変更することは、テキスト分類タスクにおいてかなり精度を低下させる。
デコーダベースのLLMは、垂直フォーマットのテキスト入力と同じような脆弱性を示すか?
論文 参考訳(メタデータ) (2024-10-26T00:16:08Z) - Public interest in science or bots? Selective amplification of scientific articles on Twitter [1.1606619391009658]
Twitter APIとBotometer APIを通じて収集されたデータと組み合わせて、Altmetricデータセットを使用しました。
論文の異なる特徴に基づいて,ボット活動の可能性について分析した。
このデータセットを使用して機械学習モデルをトレーニングし、任意の記事において可能なボットアクティビティを特定しました。
論文 参考訳(メタデータ) (2024-09-28T07:48:44Z) - Modes of Analyzing Disinformation Narratives With AI/ML/Text Mining to Assist in Mitigating the Weaponization of Social Media [0.8287206589886879]
本稿では,ソーシャルメディアにおける悪意あるコミュニケーションを捕捉・監視するための定量的モードの必要性を明らかにする。
ソーシャル・ネットワークを利用したメッセージの「ウェポン化」が意図的に行われており、州が後援し、私的に運営される政治的指向のエンティティも含む。
FacebookやX/Twitterのような主要プラットフォームにモデレーションを導入しようとする試みにもかかわらず、完全にモデレートされていないスペースを提供する代替ソーシャルネットワークが現在確立されている。
論文 参考訳(メタデータ) (2024-05-25T00:02:14Z) - Exploring the Potential of the Large Language Models (LLMs) in Identifying Misleading News Headlines [2.0330684186105805]
本研究では、誤解を招くニュースの見出しと誤解を招くニュースの見出しを識別する上で、LLM(Large Language Models)の有効性について検討する。
解析の結果,ChatGPT-4の精度は良好であった。
論文 参考訳(メタデータ) (2024-05-06T04:06:45Z) - A survey of recent methods for addressing AI fairness and bias in
biomedicine [48.46929081146017]
人工知能システムは、人種や性別に基づくような社会的不平等を永続するか、偏見を示すことができる。
バイオメディカル自然言語処理 (NLP) やコンピュータビジョン (CV) の分野での様々な脱バイアス法に関する最近の論文を調査した。
我々は,2018年1月から2023年12月にかけて,複数のキーワードの組み合わせを用いて,PubMed,ACMデジタルライブラリ,IEEE Xploreに関する文献検索を行った。
バイオメディシンに応用可能な一般領域からの他の方法について検討し, バイアスに対処し, 公平性を向上する方法について検討した。
論文 参考訳(メタデータ) (2024-02-13T06:38:46Z) - Efficacy of Utilizing Large Language Models to Detect Public Threat
Posted Online [0.0]
本稿では,大規模言語モデル(LLM)を用いてオンライン投稿された公的な脅威を検出することの有効性について検討する。
データ収集ツールは、人気の高い韓国のオンラインコミュニティから投稿を収集するために開発された。
GPT-4は総じて97.9%の非脅威と100%の脅威の精度で性能が向上した。
論文 参考訳(メタデータ) (2023-12-29T16:42:02Z) - Topological Data Mapping of Online Hate Speech, Misinformation, and
General Mental Health: A Large Language Model Based Study [6.803493330690884]
機械学習と大規模言語モデルの最近の進歩は、そのような分析を可能にした。
本研究では,ソーシャルメディアサイトReddit上で,慎重に選択されたコミュニティから何千もの投稿を収集した。
各種コミュニティにおけるヘイトスピーチ/誤情報の役割を理解するため,埋め込みに基づく各種機械学習分類を行った。
論文 参考訳(メタデータ) (2023-09-22T15:10:36Z) - Unsupervised Sentiment Analysis of Plastic Surgery Social Media Posts [91.3755431537592]
ソーシャルメディアプラットフォームにまたがる膨大なユーザー投稿は、主に人工知能(AI)のユースケースに使われていない。
自然言語処理(NLP)は、コーパス(corpora)として知られるドキュメントの体系を利用して、人間のような言語理解でコンピュータを訓練するAIのサブフィールドである。
本研究は, 教師なし解析の応用により, コンピュータがプラスティック手術に対する否定的, 肯定的, 中立的なユーザ感情を予測できることを示した。
論文 参考訳(メタデータ) (2023-07-05T20:16:20Z) - Measuring the Effect of Influential Messages on Varying Personas [67.1149173905004]
我々は、ニュースメッセージを見る際にペルソナが持つ可能性のある応答を推定するために、ニュースメディア向けのペルソナに対するレスポンス予測という新しいタスクを提示する。
提案課題は,モデルにパーソナライズを導入するだけでなく,各応答の感情極性と強度も予測する。
これにより、ペルソナの精神状態に関するより正確で包括的な推測が可能になる。
論文 参考訳(メタデータ) (2023-05-25T21:01:00Z) - ManiTweet: A New Benchmark for Identifying Manipulation of News on Social Media [74.93847489218008]
ソーシャルメディア上でのニュースの操作を識別し,ソーシャルメディア投稿の操作を検出し,操作された情報や挿入された情報を特定することを目的とした,新しいタスクを提案する。
この課題を研究するために,データ収集スキーマを提案し,3.6K対のツイートとそれに対応する記事からなるManiTweetと呼ばれるデータセットをキュレートした。
我々の分析では、このタスクは非常に難しいことを示し、大きな言語モデル(LLM)は不満足なパフォーマンスをもたらす。
論文 参考訳(メタデータ) (2023-05-23T16:40:07Z) - Can AI-Generated Text be Reliably Detected? [50.95804851595018]
大規模言語モデル(LLM)は、様々なアプリケーションで非常によく機能します。
盗作、偽ニュースの発生、スパムなどの活動においてこれらのモデルが誤用される可能性があることは、彼らの責任ある使用に対する懸念を引き起こしている。
我々は、攻撃者の存在下で、これらのAIテキスト検出装置の堅牢性を強調テストする。
論文 参考訳(メタデータ) (2023-03-17T17:53:19Z) - Predicting Seriousness of Injury in a Traffic Accident: A New Imbalanced
Dataset and Benchmark [62.997667081978825]
本稿では,交通事故における傷害の重大性を予測するために,機械学習アルゴリズムの性能を評価する新しいデータセットを提案する。
データセットは、英国運輸省から公開されているデータセットを集約することで作成される。
論文 参考訳(メタデータ) (2022-05-20T21:15:26Z) - What goes on inside rumour and non-rumour tweets and their reactions: A
Psycholinguistic Analyses [58.75684238003408]
ソーシャルメディアのテキストの心理言語学的分析は、誤情報を緩和するために意味のある結論を導くのに不可欠である。
本研究は,様々な事象に関する噂の深い心理言語学的分析を行うことによって貢献する。
論文 参考訳(メタデータ) (2021-11-09T07:45:11Z) - A PubMedBERT-based Classifier with Data Augmentation Strategy for
Detecting Medication Mentions in Tweets [2.539568419434224]
Twitterは毎日大量のユーザー生成テキスト(ツイート)を公開している。
エンティティ認識(NER)は、ツイートデータにいくつかの特別な課題を提示します。
本稿では,複数のデータ拡張手法を組み合わせたPubMedBERTベースの分類器について検討する。
提案手法はF1スコアが0.762であり, 平均値よりもかなり高い値を示した。
論文 参考訳(メタデータ) (2021-11-03T14:29:24Z) - You Mostly Walk Alone: Analyzing Feature Attribution in Trajectory
Prediction [52.442129609979794]
軌道予測のための最近の深層学習手法は有望な性能を示す。
そのようなブラックボックスモデルが実際にどのモデルを予測するために使うのかは、まだ不明である。
本稿では,モデル性能に対する異なるキューの貢献度を定量化する手法を提案する。
論文 参考訳(メタデータ) (2021-10-11T14:24:15Z) - Misleading the Covid-19 vaccination discourse on Twitter: An exploratory
study of infodemic around the pandemic [0.45593531937154413]
我々は7ヶ月(2020年9月~2021年3月)のコビッドウイルスワクチン接種に関連する中規模のツイートコーパス(20万件)を収集する。
Transfer Learningのアプローチに従えば、事前訓練されたTransformerベースのXLNetモデルを使用して、ツイートをミスリーディングまたは非ミスリーディングに分類する。
我々は、自然に誤解を招くコーパスのツイートの特徴と非誤解を招くツイートの特徴を調査・対比するためにこの手法を構築した。
いくつかのMLモデルは、最大90%の精度で予測に使用され、各特徴の重要性は、SHAP Explainable AI (X)を用いて説明される。
論文 参考訳(メタデータ) (2021-08-16T17:02:18Z) - Understanding Information Spreading Mechanisms During COVID-19 Pandemic
by Analyzing the Impact of Tweet Text and User Features for Retweet
Prediction [6.658785818853953]
新型コロナウイルスは世界の経済や、ほぼすべての人々の日常生活に影響を与えている。
ソーシャルメディアプラットフォームは、情報を共有できる他のユーザーと情報を共有できる。
CNNとRNNをベースとした2つのモデルを提案し、これらのモデルの性能を公開のTweetsCOV19データセットで評価する。
論文 参考訳(メタデータ) (2021-05-26T15:55:58Z) - Claim Detection in Biomedical Twitter Posts [11.335643770130238]
生体医学に関する誤った情報は特に危険である。
我々は、この研究ギャップを埋め、暗黙的かつ明示的なバイオメディカルクレームのために1200ツイートのコーパスに注釈を付けることを目指している。
クレームを含むツイートを自動的に検出するベースラインモデルを開発。
論文 参考訳(メタデータ) (2021-04-23T14:45:31Z) - Combining exogenous and endogenous signals with a semi-supervised
co-attention network for early detection of COVID-19 fake tweets [14.771202995527315]
新型コロナウイルス(COVID-19)の間、誤報のあるツイートは早期に警告され、中立化され、被害を軽減する必要がある。
偽ニュースを早期に検出する既存の方法のほとんどは、大きなラベル付きツイートに十分な伝搬情報を持っていると仮定している。
我々は、ツイートに関連する内因性および内因性信号を活用する新しい早期検出モデルENDEMICを提案する。
論文 参考訳(メタデータ) (2021-04-12T10:01:44Z) - Detecting Cross-Modal Inconsistency to Defend Against Neural Fake News [57.9843300852526]
我々は、画像やキャプションを含む機械生成ニュースに対して、より現実的で挑戦的な対策を導入する。
敵が悪用できる可能性のある弱点を特定するために、4つの異なる種類の生成された記事からなるNeuralNewsデータセットを作成します。
ユーザ実験から得られた貴重な知見に加えて,視覚的意味的不整合の検出にもとづく比較的効果的なアプローチを提案する。
論文 参考訳(メタデータ) (2020-09-16T14:13:15Z) - Exploratory Analysis of Covid-19 Tweets using Topic Modeling, UMAP, and
DiGraphs [36.33347149799959]
本稿では,Covid19 ツイートのトピック,キーワード,特徴,情報拡散の速度,ネットワーク行動の5つの異なる評価手法について述べる。
米国のケースに特有なトピックは、ホワイトハウスのコロナウイルス対策部隊のブリーフィングの後すぐに上昇し始めるだろう。
この分析の最も単純な特徴の1つは、正規表現のような初期記述的手法がハイレベルなテーマをうまく識別できることである。
論文 参考訳(メタデータ) (2020-05-06T19:16:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。