論文の概要: Saving the Sonorine: Photovisual Audio Recovery Using Image Processing
and Computer Vision Techniques
- arxiv url: http://arxiv.org/abs/2005.08944v3
- Date: Fri, 22 May 2020 20:08:01 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-02 13:58:14.699412
- Title: Saving the Sonorine: Photovisual Audio Recovery Using Image Processing
and Computer Vision Techniques
- Title(参考訳): ソノリンの保存:画像処理とコンピュータビジョン技術を用いた光視覚オーディオ再生
- Authors: Kevin Feng
- Abstract要約: 本稿では20世紀初頭のアナログ音声記憶装置であるソノリネスから音声を復元する新しい手法を提案する。
本手法では, 異なる照明条件下でのソノリネンの高分解能写真を用いて, 物理表面特性の反射挙動の変化を観察する。
その後、表面の溝内の高さ情報を用いて音を抽出し、レコードの物理的スタイラスを模倣する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This paper presents a novel technique to recover audio from sonorines, an
early 20th century form of analogue sound storage. Our method uses high
resolution photographs of sonorines under different lighting conditions to
observe the change in reflection behavior of the physical surface features and
create a three-dimensional height map of the surface. Sound can then be
extracted using height information within the surface's grooves, mimicking a
physical stylus on a phonograph. Unlike traditional playback methods, our
method has the advantage of being contactless: the medium will not incur damage
and wear from being played repeatedly. We compare the results of our technique
to a previously successful contactless method using flatbed scans of the
sonorines, and conclude with future research that can be applied to this
photovisual approach to audio recovery.
- Abstract(参考訳): 本稿では,20世紀初頭のアナログ音響記憶装置であるソノリネスから音声を回収する新しい手法を提案する。
本手法では, 異なる照明条件下でのソノチンの高解像度写真を用いて, 物理面の反射挙動の変化を観察し, 表面の3次元高さマップを作成する。
その後、表面の溝内の高さ情報を用いて音を抽出し、レコードの物理的スタイラスを模倣する。
従来の再生法とは違って, 媒体は損傷を生じず, 繰り返し演奏されるのを防ぎ, 接触しないという利点がある。
本手法は, ソノリタンのフラットベッドスキャンを用いて, 従来成功した非接触法と比較し, このフォトビジュアルアプローチをオーディオリカバリに適用可能な今後の研究をまとめる。
関連論文リスト
- Neural Microfacet Fields for Inverse Rendering [54.15870869037466]
本研究では,シーンの画像から材料,幾何学,環境照明を復元する手法を提案する。
本手法では, 各試料を(潜在的に不透明な)表面として扱うことにより, ボリューム設定内にマイクロファセット反射率モデルを用いる。
論文 参考訳(メタデータ) (2023-03-31T05:38:13Z) - GeneFace: Generalized and High-Fidelity Audio-Driven 3D Talking Face
Synthesis [62.297513028116576]
GeneFace は、汎用的で高忠実な NeRF ベースの話し顔生成法である。
ヘッド・トルソ問題を解消するために,ヘッド・アウェア・トルソ・NeRFを提案する。
論文 参考訳(メタデータ) (2023-01-31T05:56:06Z) - Neural Implicit Surface Reconstruction using Imaging Sonar [38.73010653104763]
画像ソナー(FLS)を用いた物体の高密度3次元再構成手法を提案する。
シーン幾何を点雲や体積格子としてモデル化する従来の手法と比較して、幾何をニューラル暗黙関数として表現する。
我々は,実データと合成データを用いて実験を行い,本アルゴリズムは,従来よりも高精細なFLS画像から高精細な表面形状を再構成し,それに伴うメモリオーバーヘッドに悩まされることを実証した。
論文 参考訳(メタデータ) (2022-09-17T02:23:09Z) - Edge-preserving Near-light Photometric Stereo with Neural Surfaces [76.50065919656575]
近光光度ステレオで解析的に微分可能なニューラルサーフェスを導入し、シャープ深度エッジでの微分誤差を回避する。
合成シーンと実世界のシーンの両方で実験を行い, エッジ保存による詳細な形状復元法の有効性を実証した。
論文 参考訳(メタデータ) (2022-07-11T04:51:43Z) - ARF: Artistic Radiance Fields [63.79314417413371]
本稿では,任意のスタイル画像の芸術的特徴を3Dシーンに転送する方法を提案する。
点雲やメッシュ上で3次元スタイリングを行う従来の手法は、幾何的再構成誤差に敏感である。
より頑健なラディアンス場表現の体系化を提案する。
論文 参考訳(メタデータ) (2022-06-13T17:55:31Z) - Neural 3D Reconstruction in the Wild [86.6264706256377]
そこで我々は,インターネット写真コレクションから効率よく高精度な表面再構成を実現する新しい手法を提案する。
そこで本研究では,これらのシーンにおける再構成性能を評価するための新しいベンチマークとプロトコルを提案する。
論文 参考訳(メタデータ) (2022-05-25T17:59:53Z) - Noise-based Enhancement for Foveated Rendering [10.124827218817439]
フェーベレートレンダリングと呼ばれる新しい画像合成技術は、この観測を利用して、周囲の合成画像の空間分解能を低下させる。
この特定の周波数範囲を効率的にプロシージャノイズに置き換えることが実証された。
我々の主な貢献は、拡張と校正に必要なノイズのパラメータを導出する知覚にインスパイアされた技法である。
論文 参考訳(メタデータ) (2022-04-09T12:00:28Z) - Geometry-Aware Multi-Task Learning for Binaural Audio Generation from
Video [94.42811508809994]
本研究では,映像中の視覚情報に基づいてモノラル(単一チャンネル)音声を音声に変換する音声空間化手法を提案する。
既存の手法では,映像フレームから直接抽出した視覚的特徴を活用するが,この手法は視覚ストリームに存在する幾何学的手がかりを明示的に切り離し,学習過程を導出する。
論文 参考訳(メタデータ) (2021-11-21T19:26:45Z) - High-frequency shape recovery from shading by CNN and domain adaptation [4.039245878626345]
単一カメラを用いた構造光に基づいて1ショットのRGB-Dセンサで撮像したシェーディング情報を用いて高周波形状を復元する手法を提案する。
シェーディング技術から形状に異なる照明位置を持つ複数の画像が必要であるが,本研究では,単一画像から形状を復元するための学習ベースアプローチを提案する。
論文 参考訳(メタデータ) (2021-08-06T04:35:34Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。