論文の概要: Beyond the Lens: Quantifying the Impact of Scientific Documentaries through Amazon Reviews
- arxiv url: http://arxiv.org/abs/2502.08705v1
- Date: Wed, 12 Feb 2025 19:00:01 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-02-14 13:48:38.292864
- Title: Beyond the Lens: Quantifying the Impact of Scientific Documentaries through Amazon Reviews
- Title(参考訳): アマゾンのレビューで科学文献の影響を定量化する「Beyond the Lens」
- Authors: Jill Naiman, Aria Pessianzadeh, Hanyu Zhao, AJ Christensen, Alistair Nunn, Shriya Srikanth, Anushka Gami, Emma Maxwell, Louisa Zhang, Sri Nithya Yeragorla, Rezvaneh Rezapour,
- Abstract要約: 科学を大衆に浸透させることは、知名度の高い人々にとって非常に重要だ。
深層観衆のフィードバック研究に必要なオーバーヘッドのため,このような作品が大規模に与える影響を評価することは困難である。
以下に示すのは、いくつかの科学論文に対するAmazonレビューの量的影響と感情分析による質的研究の補完的アプローチの概要である。
- 参考スコア(独自算出の注目度): 1.809089144827797
- License:
- Abstract: Engaging the public with science is critical for a well-informed population. A popular method of scientific communication is documentaries. Once released, it can be difficult to assess the impact of such works on a large scale, due to the overhead required for in-depth audience feedback studies. In what follows, we overview our complementary approach to qualitative studies through quantitative impact and sentiment analysis of Amazon reviews for several scientific documentaries. In addition to developing a novel impact category taxonomy for this analysis, we release a dataset containing 1296 human-annotated sentences from 1043 Amazon reviews for six movies created in whole or part by a team of visualization designers who focus on cinematic presentations of scientific data. Using this data, we train and evaluate several machine learning and large language models, discussing their effectiveness and possible generalizability for documentaries beyond those focused on for this work. Themes are also extracted from our annotated dataset which, along with our large language model analysis, demonstrate a measure of the ability of scientific documentaries to engage with the public.
- Abstract(参考訳): 科学を大衆に浸透させることは、知名度の高い人々にとって非常に重要だ。
科学コミュニケーションの一般的な方法は文書である。
一度リリースすると、深い聴衆のフィードバック研究に必要なオーバーヘッドのため、そのような作品が大規模に与える影響を評価することは困難である。
以下に示すのは、いくつかの科学論文に対するAmazonレビューの量的影響と感情分析による質的研究の補完的アプローチの概要である。
この分析のための新しいインパクトカテゴリー分類法の開発に加えて、科学的データの映画的プレゼンテーションに焦点を当てた視覚化デザイナーのチームによって、アマゾンの1043のレビューから1296の人文を含むデータセットを作成した。
このデータを用いて,機械学習および大規模言語モデルの学習と評価を行い,本研究に焦点をあてるもの以外にも,ドキュメントの有効性と一般化可能性について議論する。
また、私たちの注釈付きデータセットからテーマを抽出し、私たちの大きな言語モデル分析とともに、科学論文が一般の人々と関わり合う能力の尺度を示します。
関連論文リスト
- What Is That Talk About? A Video-to-Text Summarization Dataset for Scientific Presentations [47.79536652721794]
本稿では,科学領域におけるビデオとテキストの要約に特化したデータセットであるVISTAを紹介する。
我々は、最先端の大規模モデルの性能をベンチマークし、抽象概念の構造的性質をよりよく捉えるためにプランベースのフレームワークを適用した。
論文 参考訳(メタデータ) (2025-02-12T10:36:55Z) - SciRIFF: A Resource to Enhance Language Model Instruction-Following over Scientific Literature [80.49349719239584]
SciRIFF(Scientific Resource for Instruction-Following and Finetuning, SciRIFF)は、54のタスクに対して137Kの命令追従デモのデータセットである。
SciRIFFは、幅広い科学分野の研究文献から情報を抽出し、合成することに焦点を当てた最初のデータセットである。
論文 参考訳(メタデータ) (2024-06-10T21:22:08Z) - MASSW: A New Dataset and Benchmark Tasks for AI-Assisted Scientific Workflows [58.56005277371235]
我々は,Multi-Aspect Summarization of ScientificAspectsに関する総合テキストデータセットであるMASSWを紹介する。
MASSWには過去50年間にわたる17の主要なコンピュータサイエンスカンファレンスから152,000以上の査読論文が含まれている。
我々は、この新しいデータセットを用いてベンチマーク可能な、複数の新しい機械学習タスクを通じて、MASSWの有用性を実証する。
論文 参考訳(メタデータ) (2024-06-10T15:19:09Z) - Automated Focused Feedback Generation for Scientific Writing Assistance [6.559560602099439]
SWIF$2$T:Scientific WrIting Focused Feedback Tool。
特定の、実行可能な、一貫性のあるコメントを生成し、科学論文の弱点を特定したり、修正案を提案するように設計されている。
科学的論文の弱点を引用し,300件の査読データセットを収集し,人的評価を行う。
その結果, SWIF$2$Tのフィードバックは, 他のアプローチと比較して, 特異性, 読みやすさ, 全体的な有用性を示した。
論文 参考訳(メタデータ) (2024-05-30T20:56:41Z) - LFED: A Literary Fiction Evaluation Dataset for Large Language Models [58.85989777743013]
元々は中国語で書かれたか、中国語に翻訳された95の文学小説を収集し、数世紀にわたって幅広い話題を扱っている。
質問分類を8つのカテゴリーで定義し,1,304の質問の作成を導く。
我々は、小説の特定の属性(小説の種類、文字番号、出版年など)がLLMのパフォーマンスに与える影響を詳細に分析する。
論文 参考訳(メタデータ) (2024-05-16T15:02:24Z) - Forecasting high-impact research topics via machine learning on evolving knowledge graphs [0.6906005491572401]
我々は、研究者がこれまでに出版したことのないアイデアの発症の影響を予測する方法を示す。
我々は、2200万以上の科学論文から構築された大きな進化した知識グラフを開発した。
機械学習を用いることで、進化するネットワークのダイナミックな未来を高精度で予測できる。
論文 参考訳(メタデータ) (2024-02-13T18:09:38Z) - Models See Hallucinations: Evaluating the Factuality in Video Captioning [57.85548187177109]
ビデオキャプションにおける実感の人間による評価を行い、2つの注釈付き実感データセットを収集する。
モデル生成文の57.0%に事実誤りがあり、この分野では深刻な問題であることを示す。
本稿では,映像キャプションの事実性評価において,従来の指標より優れていたモデルベース事実性指標FactVCを提案する。
論文 参考訳(メタデータ) (2023-03-06T08:32:50Z) - Can We Automate Scientific Reviewing? [89.50052670307434]
我々は、最先端自然言語処理(NLP)モデルを用いて、科学論文の第一パスピアレビューを生成する可能性について論じる。
我々は、機械学習領域で論文のデータセットを収集し、各レビューでカバーされているさまざまなコンテンツに注釈を付け、レビューを生成するために論文を取り込み、ターゲットの要約モデルを訓練する。
総合的な実験結果から、システム生成レビューは、人間によるレビューよりも、論文の多くの側面に触れる傾向にあることが示された。
論文 参考訳(メタデータ) (2021-01-30T07:16:53Z) - VLEngagement: A Dataset of Scientific Video Lectures for Evaluating
Population-based Engagement [23.078055803229912]
ビデオ講義は、現在のデジタル時代の大衆に知識を与える主要なモダリティの1つとなっている。
科学ビデオ講義における学習者の関与を理解することを目的としたデータと研究は依然として重要なニーズである。
本稿では,VLEngagementについて紹介する。VLEngagementは,公開科学ビデオ講義から抽出したコンテンツベースおよびビデオ特有の特徴からなる,新しいデータセットである。
論文 参考訳(メタデータ) (2020-11-02T14:20:19Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。