論文の概要: New York Smells: A Large Multimodal Dataset for Olfaction
- arxiv url: http://arxiv.org/abs/2511.20544v1
- Date: Tue, 25 Nov 2025 17:44:50 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-26 17:37:04.585994
- Title: New York Smells: A Large Multimodal Dataset for Olfaction
- Title(参考訳): New York Smells:Olfactionのための大規模なマルチモーダルデータセット
- Authors: Ege Ozguroglu, Junbang Liang, Ruoshi Liu, Mia Chiquier, Michael DeTienne, Wesley Wei Qian, Alexandra Horowitz, Andrew Owens, Carl Vondrick,
- Abstract要約: ニューヨーク・スメルズ(New York Smells)は、野生で撮影された画像と嗅覚信号の大規模なデータセットである。
我々のデータセットには、屋内と屋外の環境にまたがる3,500個の異なる物体から7000個の匂いとイメージのペアが含まれています。
我々のベンチマークには3つのタスクがある: クロスモーダルな匂いとイメージの検索、シーン、物体、物質を嗅覚だけで認識すること、草種間のきめ細かい識別。
- 参考スコア(独自算出の注目度): 93.162210916881
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: While olfaction is central to how animals perceive the world, this rich chemical sensory modality remains largely inaccessible to machines. One key bottleneck is the lack of diverse, multimodal olfactory training data collected in natural settings. We present New York Smells, a large dataset of paired image and olfactory signals captured ``in the wild.'' Our dataset contains 7,000 smell-image pairs from 3,500 distinct objects across indoor and outdoor environments, with approximately 70$\times$ more objects than existing olfactory datasets. Our benchmark has three tasks: cross-modal smell-to-image retrieval, recognizing scenes, objects, and materials from smell alone, and fine-grained discrimination between grass species. Through experiments on our dataset, we find that visual data enables cross-modal olfactory representation learning, and that our learned olfactory representations outperform widely-used hand-crafted features.
- Abstract(参考訳): 有機反応は、動物が世界をどう知覚するかの中心であるが、このリッチな化学感覚モーメントは、機械にはほとんどアクセスできない。
重要なボトルネックの1つは、自然設定で収集された多様なマルチモーダル嗅覚トレーニングデータがないことである。
私たちはNew York Smellsを紹介します。これはペア画像と嗅覚信号の大規模なデータセットです。
私たちのデータセットには、屋内と屋外の環境にまたがる3500の異なるオブジェクトから7000の匂いとイメージのペアが含まれており、既存の嗅覚データセットよりも約70$\times$のオブジェクトが含まれています。
我々のベンチマークには3つのタスクがある: クロスモーダルな匂いとイメージの検索、シーン、物体、物質を嗅覚だけで認識すること、草種間のきめ細かい識別。
データセット上での実験により、視覚データによって相互嗅覚表現の学習が可能となり、学習された嗅覚表現は、広く使われている手作りの特徴よりも優れていることがわかった。
関連論文リスト
- SMELLNET: A Large-scale Dataset for Real-world Smell Recognition [26.27822839167258]
SmellNetは、自然界で多様な匂いをデジタル化する最初の大規模データベースである。
ScentFormerは、時間差分とスライディングウインドウを併用したTransformerベースのアーキテクチャである。
ScentFormerとSmellNetは、医療、食品、飲料、環境モニタリング、製造、エンターテイメントなど、現実世界の嗅覚アプリケーションの基礎を作った。
論文 参考訳(メタデータ) (2025-05-30T21:15:25Z) - X-Capture: An Open-Source Portable Device for Multi-Sensory Learning [11.632896115888261]
我々は,X-Captureを紹介した。X-Captureは,実世界のマルチセンサーデータ収集のための,オープンソースでポータブルで費用対効果の高いデバイスである。
1000ドル以下のビルドコストで、X-Captureはマルチセンサーデータセットの作成を民主化する。
X-Captureは、AIにおける人間のような感覚表現の進化の基礎を成している。
論文 参考訳(メタデータ) (2025-04-03T06:44:25Z) - Estimating the distribution of numerosity and non-numerical visual magnitudes in natural scenes using computer vision [0.08192907805418582]
自然の視覚的な場面では、異なる数列の出現頻度は、電力法分布に従うことを示す。
本研究では, 連続度と数値の相関構造が, データセット, シーンタイプ間で安定であることを示す。
論文 参考訳(メタデータ) (2024-09-17T09:49:29Z) - DNA-Rendering: A Diverse Neural Actor Repository for High-Fidelity
Human-centric Rendering [126.00165445599764]
ニューラルアクターレンダリングのための人間のパフォーマンスデータの大規模かつ高忠実なリポジトリであるDNAレンダリングを提案する。
我々のデータセットには、1500人以上の被験者、5000のモーションシーケンス、67.5Mのフレームのデータボリュームが含まれています。
我々は,最大解像度4096 x 3000の60個の同期カメラと15fpsの速度,ステルカメラキャリブレーションステップを含む,データをキャプチャするプロフェッショナルなマルチビューシステムを構築した。
論文 参考訳(メタデータ) (2023-07-19T17:58:03Z) - Habitat Synthetic Scenes Dataset (HSSD-200): An Analysis of 3D Scene
Scale and Realism Tradeoffs for ObjectGoal Navigation [70.82403156865057]
本研究では,合成3次元シーン・データセット・スケールとリアリズムが,オブジェクトの探索とナビゲートを行う具体的エージェントの訓練作業に与える影響について検討する。
我々の実験によると、我々の小規模データセットで訓練されたエージェントは、はるかに大きなデータセットで訓練されたエージェントと一致するか、より優れています。
論文 参考訳(メタデータ) (2023-06-20T05:07:23Z) - The ObjectFolder Benchmark: Multisensory Learning with Neural and Real
Objects [51.22194706674366]
マルチセンサーなオブジェクト中心学習のための10のタスクからなるベンチマークスイートであるObject Benchmarkを紹介した。
また,100個の実世界の家庭用オブジェクトに対するマルチセンサー計測を含む,オブジェクトリアルデータセットについても紹介する。
論文 参考訳(メタデータ) (2023-06-01T17:51:22Z) - Learning from THEODORE: A Synthetic Omnidirectional Top-View Indoor
Dataset for Deep Transfer Learning [4.297070083645049]
TheODOREは,14種類の高解像度魚眼画像10万点を含む,新しい大規模屋内データセットである。
リビングルーム、異なる人間キャラクター、インテリアテクスチャの3D仮想環境を作成します。
我々のデータセットは、オブジェクト検出のための微調整CNNに適していることを示す。
論文 参考訳(メタデータ) (2020-11-11T11:46:33Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。