論文の概要: Semi-Supervised Exaggeration Detection of Health Science Press Releases
- arxiv url: http://arxiv.org/abs/2108.13493v1
- Date: Mon, 30 Aug 2021 19:32:20 GMT
- ステータス: 処理完了
- システム内更新日: 2021-09-01 14:37:30.265271
- Title: Semi-Supervised Exaggeration Detection of Health Science Press Releases
- Title(参考訳): 半教師による健康科学プレスリリースの誇張検出
- Authors: Dustin Wright and Isabelle Augenstein
- Abstract要約: 近年の研究では、研究結果を誇張することで、メディアが科学論文を誤って表現する傾向が示されている。
本稿では,科学コミュニケーションにおける誇張検出問題の形式化と研究について述べる。
本稿では,補完的なクローゼスタイルのQAタスクからの知識を活用し,数発の学習を改善する多タスク版であるMT-PETを紹介する。
- 参考スコア(独自算出の注目度): 23.930041685595775
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Public trust in science depends on honest and factual communication of
scientific papers. However, recent studies have demonstrated a tendency of news
media to misrepresent scientific papers by exaggerating their findings. Given
this, we present a formalization of and study into the problem of exaggeration
detection in science communication. While there are an abundance of scientific
papers and popular media articles written about them, very rarely do the
articles include a direct link to the original paper, making data collection
challenging. We address this by curating a set of labeled press
release/abstract pairs from existing expert annotated studies on exaggeration
in press releases of scientific papers suitable for benchmarking the
performance of machine learning models on the task. Using limited data from
this and previous studies on exaggeration detection in science, we introduce
MT-PET, a multi-task version of Pattern Exploiting Training (PET), which
leverages knowledge from complementary cloze-style QA tasks to improve few-shot
learning. We demonstrate that MT-PET outperforms PET and supervised learning
both when data is limited, as well as when there is an abundance of data for
the main task.
- Abstract(参考訳): 科学に対する公的信頼は、科学論文の誠実で事実的なコミュニケーションに依存する。
しかし、近年の研究では、ニュースメディアが科学論文を誇張して誤って提示する傾向が示されている。
そこで,本稿では,科学コミュニケーションにおける誇張検出の問題を形式化し,検討する。
科学論文やそれらに関する人気のあるメディア記事は豊富にあるが、その記事がオリジナルの論文と直接リンクすることはほとんどなく、データ収集を困難にしている。
本研究は,機械学習モデルの性能のベンチマークに適した学術論文のプレスリリースにおいて,既存の専門家による誇張に関する注釈付き研究からラベル付きプレスリリース/抽象ペアのセットをキュレートすることによって,この問題に対処する。
このことから得られた限られたデータと、科学における誇張検出に関する過去の研究を用いて、補完的なクローゼスタイルのQAタスクからの知識を活用し、少数ショット学習を改善する多タスク版であるMT-PETを紹介した。
MT-PETは,データに制限がある場合と,メインタスクに大量のデータがある場合の両方において,PETと教師あり学習より優れていることを示す。
関連論文リスト
- Smoke and Mirrors in Causal Downstream Tasks [59.90654397037007]
本稿では, 治療効果推定の因果推論タスクについて検討し, 高次元観察において利害関係が記録されている。
最先端の視覚バックボーンから微調整した6つの480モデルを比較し、サンプリングとモデリングの選択が因果推定の精度に大きく影響することを発見した。
以上の結果から,今後のベンチマークでは,下流の科学的問題,特に因果的な問題について慎重に検討すべきであることが示唆された。
論文 参考訳(メタデータ) (2024-05-27T13:26:34Z) - PST-Bench: Tracing and Benchmarking the Source of Publications [39.250042251037144]
本稿では,PST(Paper Source Trace)の問題について検討し,コンピュータ科学における高品質かつ継続的なデータセットPST-Benchを構築した。
PST-Benchに基づいて、様々なトピックにまたがる進化パターンの相違など、興味深い発見をいくつか明らかにした。
論文 参考訳(メタデータ) (2024-02-25T06:56:43Z) - Can Large Language Models Detect Misinformation in Scientific News
Reporting? [1.0344642971058586]
本稿では,科学的報告における誤情報の検出に大規模言語モデル(LLM)を用いることが可能であるかを検討する。
最初にラベル付きデータセットSciNewsを提示し、信頼できない情報源から抜粋された2.4万の科学ニュース記事を含む。
科学ニュース記事の科学的妥当性の次元を識別し、科学的誤報の自動検出にどのように組み込むかを検討する。
論文 参考訳(メタデータ) (2024-02-22T04:07:00Z) - PaperQA: Retrieval-Augmented Generative Agent for Scientific Research [41.9628176602676]
本稿では,科学文献に関する質問に回答するためのRAGエージェントPaperQAを紹介する。
PaperQAは、全文の科学論文を通じて情報検索を行い、ソースやパスの関連性を評価し、RAGを使用して回答を提供するエージェントである。
また、文献全体にわたる全文科学論文からの情報の検索と合成を必要とする、より複雑なベンチマークであるLitQAを紹介する。
論文 参考訳(メタデータ) (2023-12-08T18:50:20Z) - Pre-training Multi-task Contrastive Learning Models for Scientific
Literature Understanding [52.723297744257536]
事前学習言語モデル(LM)は、科学文献理解タスクにおいて有効であることを示す。
文献理解タスク間の共通知識共有を容易にするために,マルチタスクのコントラスト学習フレームワークであるSciMultを提案する。
論文 参考訳(メタデータ) (2023-05-23T16:47:22Z) - ManiTweet: A New Benchmark for Identifying Manipulation of News on Social Media [74.93847489218008]
ソーシャルメディア上でのニュースの操作を識別し,ソーシャルメディア投稿の操作を検出し,操作された情報や挿入された情報を特定することを目的とした,新しいタスクを提案する。
この課題を研究するために,データ収集スキーマを提案し,3.6K対のツイートとそれに対応する記事からなるManiTweetと呼ばれるデータセットをキュレートした。
我々の分析では、このタスクは非常に難しいことを示し、大きな言語モデル(LLM)は不満足なパフォーマンスをもたらす。
論文 参考訳(メタデータ) (2023-05-23T16:40:07Z) - Harnessing the Power of Text-image Contrastive Models for Automatic
Detection of Online Misinformation [50.46219766161111]
誤情報識別の領域における構成的学習を探求する自己学習モデルを構築した。
本モデルでは、トレーニングデータが不十分な場合、非マッチング画像-テキストペア検出の優れた性能を示す。
論文 参考訳(メタデータ) (2023-04-19T02:53:59Z) - Modeling Information Change in Science Communication with Semantically
Matched Paraphrases [50.67030449927206]
SPICEDは、情報変化の度合いに注釈を付けた科学的な発見の最初のパラフレーズデータセットである。
SPICEDには、ニュース記事、ソーシャルメディアの議論、オリジナル論文の全文から抽出された6000の科学的発見ペアが含まれている。
SPICEDで訓練されたモデルは、実世界の科学的主張の事実チェックのための証拠検索において下流のパフォーマンスを改善する。
論文 参考訳(メタデータ) (2022-10-24T07:44:38Z) - Large-Scale Data Mining of Rapid Residue Detection Assay Data From HTML
and PDF Documents: Improving Data Access and Visualization for Veterinarians [3.055086390437118]
食品動物医学におけるエクストララベル薬物の使用は、米国動物医薬品使用明確化法(AMDUCA)によって認可されている。
時々、離脱間隔や多くの動物を治療する科学的なデータがあるため、薬物残基を検査する必要が生じる。
家畜の健康を守るために、農薬の残留物を監視するために、迅速な農薬試験が不可欠である。
論文 参考訳(メタデータ) (2021-12-02T03:39:25Z) - CitationIE: Leveraging the Citation Graph for Scientific Information
Extraction [89.33938657493765]
引用論文と引用論文の参照リンクの引用グラフを使用する。
最先端技術に対するエンド・ツー・エンドの情報抽出の大幅な改善を観察する。
論文 参考訳(メタデータ) (2021-06-03T03:00:12Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。