論文の概要: A Sonification of the zCOSMOS Galaxy Dataset
- arxiv url: http://arxiv.org/abs/2202.05539v1
- Date: Fri, 11 Feb 2022 10:36:05 GMT
- ステータス: 処理完了
- システム内更新日: 2023-02-19 14:50:52.915707
- Title: A Sonification of the zCOSMOS Galaxy Dataset
- Title(参考訳): zCOSMOS Galaxyデータセットの音化
- Authors: S. Bardelli, Claudia Ferretti, Luca Andrea Ludovico, Giorgio Presti,
Maurizio Rinaldi
- Abstract要約: 音化とは、異なる技術によって達成可能な、データから音響信号への変換である。
ソニフィケーションは、プレゼンテーションや普及のイニシアチブ、芸術的目標にも適用することができる。
- 参考スコア(独自算出の注目度): 0.6562256987706128
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Sonification is the transformation of data into acoustic signals, achievable
through different techniques. Sonification can be defined as a way to represent
data values and relations as perceivable sounds, aiming at facilitating their
communication and interpretation. Like data visualization provides meaning via
images, sonification conveys meaning via sound. Sonification approaches are
useful in a number of scenario. A first case is the possibility to receive
information while keeping other sensory channels free, like in medical
environment, in driving experience, etc. Another scenario addresses an easier
recognition of patterns when data present high dimensionality and cardinality.
Finally, sonification can be applied to presentation and dissemination
initiatives, also with artistic goals. The zCOSMOS dataset contains detailed
data about almost 20000 galaxies, describing the evolution of a relatively
small portion of the universe in the last 10 million years in terms of galaxy
mass, absolute luminosity, redshift, distance, age, and star formation rate.
The present paper proposes a sonification for the mentioned dataset, with the
following goals: i) providing a general description of the dataset, accessible
via sound, which could also make unnoticed patterns emerge; ii) realizing an
artistic but scientifically accurate sonic portrait of a portion of the
universe, thus filling the gap between art and science in the context of
scientific dissemination and so-called "edutainment"; iii) adding value to the
dataset, since also scientific data and achievements must be considered as a
cultural heritage that needs to be preserved and enhanced. Both scientific and
technological aspects of the sonification are addressed.
- Abstract(参考訳): ソニフィケーションはデータの音響信号への変換であり、異なる技術によって実現可能である。
ソニフィケーションは、データの価値と関係を知覚可能な音として表現する方法として定義することができ、コミュニケーションと解釈の促進を目指している。
データビジュアライゼーションが画像を通じて意味を提供するように、音化は音を通して意味を伝える。
音素化アプローチは多くのシナリオで有用である。
第1のケースは、医療環境や運転経験など、他の感覚チャネルを自由に保ちながら情報を受信する可能性である。
別のシナリオでは、データが高次元と濃度を示す場合のパターン認識を容易にする。
最後に、ソニフィケーションは、プレゼンテーションや普及イニシアチブにも、芸術的な目標と共に適用することができる。
zCOSMOSデータセットには、約20000個の銀河に関する詳細なデータが含まれており、銀河質量、絶対光度、赤方偏移、距離、年齢、星形成率の観点から、過去1000万年間の宇宙の比較的小さな部分の進化を記述している。
本稿では,以下の目標を掲げたデータセットの音素化を提案する。
一 音によりアクセス可能なデータセットの一般説明を提供し、かつ、注目されないパターンが出現するおそれがあること。
二 宇宙の一部の芸術的かつ科学的に正確な音像を実現し、科学の普及及びいわゆる「教育」の文脈において、芸術と科学のギャップを埋めること。
三 データセットに価値を加えること また、科学的データ及び業績は、保存及び強化される必要がある文化的遺産とみなすこと。
音化の科学的側面と技術的側面の両方に対処する。
関連論文リスト
- Synth-SONAR: Sonar Image Synthesis with Enhanced Diversity and Realism via Dual Diffusion Models and GPT Prompting [0.0]
本研究では,新しいソナー画像合成フレームワーク,Synth-SONARを提案する。
まず、ジェネレーティブAIベースのスタイルインジェクション技術と、公開されている実/シミュレーションデータを統合する。
第二に、二重テキスト条件ソナー拡散モデル階層は、粗くきめ細かなソナー画像を品質と多様性を向上して合成する。
第3に、高レベル(粗度)と低レベル(詳細)のテキストベースのソナー生成手法は、視覚言語モデル(VLM)とGPTプロンプトで利用可能な高度な意味情報を活用する。
論文 参考訳(メタデータ) (2024-10-11T08:27:25Z) - StableSemantics: A Synthetic Language-Vision Dataset of Semantic Representations in Naturalistic Images [5.529078451095096]
視覚シーンの意味を理解することはコンピュータビジョンの基本的な課題である。
テキストと画像のフレームワークの最近の進歩は、自然のシーン統計を暗黙的に捉えるモデルにつながっている。
提案するStableSemanticsは、224万件の人為的なプロンプト、処理された自然言語キャプション、200万以上の合成画像、そして個々の名詞のチャンクに対応する1000万のアテンションマップからなるデータセットである。
論文 参考訳(メタデータ) (2024-06-19T17:59:40Z) - NeRAF: 3D Scene Infused Neural Radiance and Acoustic Fields [3.954853544590893]
本研究では,音場と放射場を共同で学習するNeRAFを提案する。
NeRAFは、新しい視点と空間化された部屋インパルス応答(RIR)の両方を新しい位置で合成する。
我々は、NeRAFがSoundSpacesおよびRAFデータセット上で高品質なオーディオを生成することを実証した。
論文 参考訳(メタデータ) (2024-05-28T14:17:41Z) - Real Acoustic Fields: An Audio-Visual Room Acoustics Dataset and Benchmark [65.79402756995084]
Real Acoustic Fields (RAF)は、複数のモードから実際の音響室データをキャプチャする新しいデータセットである。
RAFは密集した室内音響データを提供する最初のデータセットである。
論文 参考訳(メタデータ) (2024-03-27T17:59:56Z) - Synthetic-to-Real Domain Adaptation for Action Recognition: A Dataset and Baseline Performances [76.34037366117234]
ロボット制御ジェスチャー(RoCoG-v2)と呼ばれる新しいデータセットを導入する。
データセットは7つのジェスチャークラスの実ビデオと合成ビデオの両方で構成されている。
我々は,最先端の行動認識とドメイン適応アルゴリズムを用いて結果を示す。
論文 参考訳(メタデータ) (2023-03-17T23:23:55Z) - Novel-View Acoustic Synthesis [140.1107768313269]
本稿では,NVASタスクについて紹介する。
音源の視点で観測された視界と音から 見えない対象の視点から そのシーンの音を合成できるか?
空間内の任意の点の音を合成することを学ぶ視覚誘導音響合成(ViGAS)ネットワークを提案する。
論文 参考訳(メタデータ) (2023-01-20T18:49:58Z) - Disentangling Learnable and Memorizable Data via Contrastive Learning
for Semantic Communications [81.10703519117465]
セマンティック・レディにするために、ソースデータをアンタングルする新しい機械推論フレームワークが提案されている。
特に、データ上でインスタンスとクラスタの識別を行う新しいコントラスト学習フレームワークが提案されている。
信頼度の高い深いセマンティッククラスタは、学習可能でセマンティックリッチなデータだと考えられている。
シミュレーションの結果は, セマンティック・インパクトとミニマリズムの観点から, コントラスト学習アプローチの優位性を示した。
論文 参考訳(メタデータ) (2022-12-18T12:00:12Z) - Learning Neural Acoustic Fields [110.22937202449025]
音が物理的場面でどのように伝搬するかを暗黙的に表現するニューラル・アコースティック・フィールズ(NAF)を導入する。
シーン内の音響伝搬を線形時間不変系としてモデル化することにより、NAFは全てのエミッタとリスナーの位置ペアを連続的にマッピングすることを学ぶ。
NAFの連続的な性質により、任意の場所でリスナーの空間音響を描画することができ、新しい場所での音の伝搬を予測できることを実証する。
論文 参考訳(メタデータ) (2022-04-04T17:59:37Z) - Cetacean Translation Initiative: a roadmap to deciphering the
communication of sperm whales [97.41394631426678]
最近の研究では、非ヒト種における音響コミュニケーションを分析するための機械学習ツールの約束を示した。
マッコウクジラの大量生物音響データの収集と処理に必要な重要な要素について概説する。
開発された技術能力は、非人間コミュニケーションと動物行動研究を研究する幅広いコミュニティにおいて、クロス応用と進歩をもたらす可能性が高い。
論文 参考訳(メタデータ) (2021-04-17T18:39:22Z) - Predicting Emotions Perceived from Sounds [2.9398911304923447]
音化とは、音を通してユーザとデータやイベントを通信する科学である。
本稿では、いくつかの主流および従来型の機械学習アルゴリズムを開発する実験を行う。
知覚された感情を高い精度で予測することが可能である。
論文 参考訳(メタデータ) (2020-12-04T15:01:59Z) - Unsupervised Learning of Audio Perception for Robotics Applications:
Learning to Project Data to T-SNE/UMAP space [2.8935588665357077]
本論文は,接地構造データにアクセスすることなく,触覚の知覚を構築するための重要なアイデアを基礎にしている。
我々は、古典的な信号処理のアイデアを活用して、高い精度で興味のある音の大量のデータを得る方法を示す。
論文 参考訳(メタデータ) (2020-02-10T20:33:25Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。