論文の概要: Audience Reach of Scientific Data Visualizations in Planetarium-Screened Films
- arxiv url: http://arxiv.org/abs/2411.08045v1
- Date: Wed, 30 Oct 2024 18:36:00 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-11-17 08:33:27.285721
- Title: Audience Reach of Scientific Data Visualizations in Planetarium-Screened Films
- Title(参考訳): プラネタリウム硬化膜における科学データ可視化のオーディエンスリーチ
- Authors: Kalina Borkiewicz, Eric Jensen, Yiwen Miao, Stuart Levy, J. P. Naiman, Jeff Carpenter, Katherine E. Isaacs,
- Abstract要約: 本研究では,ドームショーのグローバルな影響を分析し,単一の可視化実験室から4本のドキュメンタリー映画に関するデータを提示する。
調査データによると、この4本の映画を68のプラネタリウムで見た人は1.2~260万人。
これらのショーをライセンスした315個のプラネタリウムの見積もりと外挿を含めると、これらの映画を観た人の推定は165~2410万人になる。
- 参考スコア(独自算出の注目度): 2.349151532257324
- License:
- Abstract: Quantifying the global reach of planetarium dome shows presents significant challenges due to the lack of standardized viewership tracking mechanisms across diverse planetarium venues. We present an analysis of the global impact of dome shows, presenting data regarding four documentary films from a single visualization lab. Specifically, we designed and administered a viewership survey of four long-running shows that contained cinematic scientific visualizations. Reported survey data shows that between 1.2 - 2.6 million people have viewed these four films across the 68 responding planetariums (mean: 1.9 million). When we include estimates and extrapolate for the 315 planetariums that licensed these shows, we arrive at an estimate of 16.5 - 24.1 million people having seen these films (mean: 20.3 million).
- Abstract(参考訳): プラネタリウムドームのグローバルリーチの定量化は、さまざまなプラネタリウム会場で視界追跡機構の標準化が欠如していることから、大きな課題を示している。
本研究では,ドームショーのグローバルな影響を分析し,単一の可視化実験室から4本のドキュメンタリー映画に関するデータを提示する。
具体的には,映像科学的視覚化を含む4つのロングランショーの視聴者調査を設計し,実施した。
調査データによると、この4本の映画を68のプラネタリウム(約190万)で見た人は1.2~260万人。
これらのショーをライセンスした315個のプラネタリウムの見積もりと外挿を含めると、これらの映画を観た人数は165~2410万人(平均2030万人)と推定される。
関連論文リスト
- The FathomNet2023 Competition Dataset [0.8180522890142969]
海洋科学者は、何十年にもわたって海洋生物を研究するために、視覚データを収集してきた。
これらのデータを自動的に処理するツールもあるが、サンプル集団の極端な変動を処理できるツールは存在しない。
画像やビデオのシーケンスが新しい生物、珍しい動物のコレクションを含むことを認識できるモデルや、そうでなければ海中の視覚データを完全に活用することが重要である。
論文 参考訳(メタデータ) (2023-07-17T18:50:53Z) - Spatial Implicit Neural Representations for Global-Scale Species Mapping [72.92028508757281]
ある種が観察された場所の集合を考えると、その種がどこにいても存在しないかを予測するためのモデルを構築することが目的である。
従来の手法は、新たな大規模クラウドソースデータセットを活用するのに苦労している。
本研究では,47k種の地理的範囲を同時に推定するために,空間入射ニューラル表現(SINR)を用いる。
論文 参考訳(メタデータ) (2023-06-05T03:36:01Z) - MEVID: Multi-view Extended Videos with Identities for Video Person
Re-Identification [17.72434646703505]
本稿では,大規模ビデオパーソン再識別(ReID)のためのMulti-view Extended Videos with Identities(MEVID)データセットを提案する。
我々は,約590フレームのトラックレット8,092枚から採取した598枚の衣装を身に着けている158人のユニークな人物の身元をラベル付けした。
MEVAビデオデータセットをベースとして、人口統計学的にアメリカ大陸にバランスのとれたデータを継承する。
論文 参考訳(メタデータ) (2022-11-09T03:07:31Z) - MABe22: A Multi-Species Multi-Task Benchmark for Learned Representations
of Behavior [28.878568752724235]
学習行動表現の質を評価するベンチマークであるMABe22を紹介する。
このデータセットは様々な生物学実験から収集される。
我々は,自己教師付きビデオとトラジェクトリ表現学習法を試行し,ベンチマークの利用を実証した。
論文 参考訳(メタデータ) (2022-07-21T15:51:30Z) - Video Action Detection: Analysing Limitations and Challenges [70.01260415234127]
ビデオ行動検出における既存のデータセットを分析し,その限界について議論する。
静的画像から映像を区別する重要な特性である時間的側面を解析するバイアスネススタディを実行する。
このような極端な実験は、注意深いモデリングを必要とする既存の手法に忍び込んだバイアスの存在を示している。
論文 参考訳(メタデータ) (2022-04-17T00:42:14Z) - Ego4D: Around the World in 3,000 Hours of Egocentric Video [276.1326075259486]
Ego4Dは大規模なビデオデータセットとベンチマークスイートである。
世界中の74か国と9か国から、855人のユニークなカメラ着用者が捉えた数百のシナリオを、毎日3,025時間の動画で見ることができる。
ビデオにはオーディオ、環境の3Dメッシュ、視線、ステレオ、および/または複数のエゴセントリックカメラからの同期ビデオが添付されている。
論文 参考訳(メタデータ) (2021-10-13T22:19:32Z) - Detection, Tracking, and Counting Meets Drones in Crowds: A Benchmark [97.07865343576361]
DroneCrowdという新しいドローンキャプチャ型大規模データセットによるベンチマークを構築した。
私たちは4800万人の頭といくつかのビデオレベルの属性を持つ20,800人のトラジェクタに注釈を付けます。
我々は、密集した群衆の物体の検出、追跡、数え上げを行うための強力なベースラインとして、Space-Time Neighbor-Aware Network (STNNet)を設計する。
論文 参考訳(メタデータ) (2021-05-06T04:46:14Z) - Analyzing Worldwide Social Distancing through Large-Scale Computer
Vision [2.9933334099811546]
新型コロナウイルスのパンデミックを封じ込めるため、世界中の国々でソーシャルディスタンシングのガイドラインが導入されている。
個人報告のような従来の観察方法が危険なのは、観察者が感染を危険にさらす可能性があるためである。
この研究チームは、世界中の何千ものネットワークカメラを発見できる方法を開発した。
論文 参考訳(メタデータ) (2020-08-27T20:20:11Z) - The EPIC-KITCHENS Dataset: Collection, Challenges and Baselines [88.47608066382267]
この大規模なデータセットが、32人の参加者によって、彼らのネイティブキッチン環境でどのようにキャプチャされたか、詳しく説明します。
録音は10カ国から4カ国で行われた。
私たちのデータセットは、11.5万フレームからなる55時間のビデオで構成されており、合計39.6Kアクションセグメントと454.2Kオブジェクトバウンディングボックスを密にラベル付けしています。
論文 参考訳(メタデータ) (2020-04-29T21:57:04Z) - DeeperForensics-1.0: A Large-Scale Dataset for Real-World Face Forgery
Detection [93.24684159708114]
DeeperForensics-1.0は、これまでで最大の顔偽造検出データセットであり、合計で1760万フレームの6万本のビデオで構成されている。
生成されたビデオの品質は、既存のデータセットよりも優れており、ユーザ研究によって検証されている。
このベンチマークには隠れたテストセットがあり、人間の評価において高い認識スコアを達成する操作されたビデオを含んでいる。
論文 参考訳(メタデータ) (2020-01-09T14:37:17Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。