論文の概要: LAND: A Longitudinal Analysis of Neuromorphic Datasets
- arxiv url: http://arxiv.org/abs/2602.15973v1
- Date: Tue, 17 Feb 2026 19:46:33 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-19 15:58:30.422919
- Title: LAND: A Longitudinal Analysis of Neuromorphic Datasets
- Title(参考訳): LAND:ニューロモルフィックデータセットの経時的解析
- Authors: Gregory Cohen, Alexandre Marcireau,
- Abstract要約: このレビューでは、既存のニューロモルフィックデータセットをキャプチャし、423以上のデータセットをカバーしている。
これらのデータセットの分析は、そのサイズ、標準化の欠如、実際のデータにアクセスする上での困難さを示している。
より重要な懸念は、シミュレーションまたはビデオ・ツー・イベントの手法によって生成される合成データセットの台頭である。
- 参考スコア(独自算出の注目度): 47.84658158364453
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Neuromorphic engineering has a data problem. Despite the meteoric rise in the number of neuromorphic datasets published over the past ten years, the conclusion of a significant portion of neuromorphic research papers still states that there is a need for yet more data and even larger datasets. Whilst this need is driven in part by the sheer volume of data required by modern deep learning approaches, it is also fuelled by the current state of the available neuromorphic datasets and the difficulties in finding them, understanding their purpose, and determining the nature of their underlying task. This is further compounded by practical difficulties in downloading and using these datasets. This review starts by capturing a snapshot of the existing neuromorphic datasets, covering over 423 datasets, and then explores the nature of their tasks and the underlying structure of the presented data. Analysing these datasets shows the difficulties arising from their size, the lack of standardisation, and difficulties in accessing the actual data. This paper also highlights the growth in the size of individual datasets and the complexities involved in working with the data. However, a more important concern is the rise of synthetic datasets, created by either simulation or video-to-events methods. This review explores the benefits of simulated data for testing existing algorithms and applications, highlighting the potential pitfalls for exploring new applications of neuromorphic technologies. This review also introduces the concepts of meta-datasets, created from existing datasets, as a way of both reducing the need for more data, and to remove potential bias arising from defining both the dataset and the task.
- Abstract(参考訳): ニューロモルフィックエンジニアリングにはデータ問題がある。
過去10年間に公表されたニューロモルフィックデータセットの数の気象学的増加にもかかわらず、ニューロモルフィック研究論文のかなりの部分の結論は、さらに多くのデータとより大きなデータセットが必要であることをいまだに示している。
このニーズは、現代的なディープラーニングアプローチが必要とする膨大な量のデータによっても引き起こされているが、利用可能なニューロモルフィックデータセットの現在の状態と、それらを見つけることの難しさ、その目的を理解し、基礎となるタスクの性質を決定することによっても引き起こされている。
このことは、これらのデータセットのダウンロードと使用の実践的な困難によってさらに複雑化している。
このレビューは、既存のニューロモーフィックデータセットのスナップショットを取得し、423以上のデータセットをカバーし、タスクの性質と提示されたデータの構造を調査することから始まる。
これらのデータセットの分析は、そのサイズ、標準化の欠如、実際のデータにアクセスする上での困難さを示している。
本稿は、個々のデータセットのサイズと、データを扱う複雑さの増大についても強調する。
しかし、より重要な懸念は、シミュレーションまたはビデオ・ツー・イベント法によって生成される合成データセットの台頭である。
このレビューでは、既存のアルゴリズムやアプリケーションをテストするためのシミュレーションデータの利点について検討し、ニューロモルフィック技術の新たな応用を探求するための潜在的な落とし穴を取り上げている。
このレビューでは、既存のデータセットから生成されたメタデータセットの概念についても紹介し、より多くのデータの必要性を減らし、データセットとタスクの両方を定義することによって生じる潜在的なバイアスを取り除く方法を紹介している。
関連論文リスト
- Synthetic Tabular Data: Methods, Attacks and Defenses [12.374541748245843]
合成データは、プライバシの懸念から解放された、機密性の高い固定サイズのデータセットを無制限に一致するデータのソースに置き換えるソリューションとして、しばしば位置づけられる。
合成データ生成はこの10年で大きく進歩し、機械学習とデータ分析の進歩を生かしている。
論文 参考訳(メタデータ) (2025-06-06T14:16:57Z) - Causal-StoNet: Causal Inference for High-Dimensional Complex Data [7.648784748888187]
本稿では,高次元複素データを扱うための新しい因果推論手法を提案する。
これは、疎いディープラーニング理論やニューラルネットワークなど、ディープラーニング技術に基づいている。
提案手法は、データセットに欠落した値が存在する場合にも使用できる。
論文 参考訳(メタデータ) (2024-03-27T20:27:31Z) - Exploring the Potential of AI-Generated Synthetic Datasets: A Case Study
on Telematics Data with ChatGPT [0.0]
この研究は、OpenAIの強力な言語モデルであるChatGPTを活用して、特にテレマティクス分野における合成データセットの構築と利用に力を入れている。
このデータ作成プロセスを説明するために、合成テレマティクスデータセットの生成に焦点を当てたハンズオンケーススタディが実施されている。
論文 参考訳(メタデータ) (2023-06-23T15:15:13Z) - LargeST: A Benchmark Dataset for Large-Scale Traffic Forecasting [65.71129509623587]
道路交通予測はスマートシティのイニシアチブにおいて重要な役割を担い、ディープラーニングの力によって大きな進歩を遂げている。
しかし、現在の公開データセットで達成される有望な結果は、現実的なシナリオには適用できないかもしれない。
カリフォルニアで合計8,600のセンサーと5年間の時間カバレッジを含む、LargeSTベンチマークデータセットを紹介します。
論文 参考訳(メタデータ) (2023-06-14T05:48:36Z) - Dataset Distillation: A Comprehensive Review [76.26276286545284]
データセット蒸留(DD)は、トレーニングされたモデルが元のデータセットでトレーニングされたデータセットに匹敵するパフォーマンスを得るために、合成サンプルを含むはるかに小さなデータセットを導出することを目的としている。
本稿ではDDの最近の進歩とその応用について概説する。
論文 参考訳(メタデータ) (2023-01-17T17:03:28Z) - A Survey of Dataset Refinement for Problems in Computer Vision Datasets [11.45536223418548]
大規模データセットはコンピュータビジョンの進歩に重要な役割を果たしてきた。
クラス不均衡、ノイズの多いラベル、データセットバイアス、高いリソースコストといった問題に悩まされることが多い。
データセット問題を解決するために、様々なデータ中心のソリューションが提案されている。
データセットを再構成することで、データセットの品質が向上します。
論文 参考訳(メタデータ) (2022-10-21T03:58:43Z) - TRoVE: Transforming Road Scene Datasets into Photorealistic Virtual
Environments [84.6017003787244]
本研究では、シミュレーションデータセットに存在する困難とドメインギャップに対処する合成データ生成パイプラインを提案する。
既存のデータセットからアノテーションや視覚的手がかりを利用すれば、自動マルチモーダルデータ生成が容易になることを示す。
論文 参考訳(メタデータ) (2022-08-16T20:46:08Z) - DataPerf: Benchmarks for Data-Centric AI Development [81.03754002516862]
DataPerfは、MLデータセットとデータ中心アルゴリズムを評価するための、コミュニティ主導のベンチマークスイートである。
私たちは、この反復的な開発をサポートするために、複数の課題を抱えたオープンなオンラインプラットフォームを提供しています。
ベンチマーク、オンライン評価プラットフォーム、ベースライン実装はオープンソースである。
論文 参考訳(メタデータ) (2022-07-20T17:47:54Z) - On The State of Data In Computer Vision: Human Annotations Remain
Indispensable for Developing Deep Learning Models [0.0]
高品質ラベル付きデータセットは機械学習(ML)の発展に重要な役割を果たす
2012年にImageNetデータセットとAlexNetモデルが登場して以来、新しいオープンソースのラベル付きビジョンデータセットのサイズはほぼ一定である。
コンピュータビジョンコミュニティの少数の出版物は、Imagenetよりも桁違いの大きさのデータセットの教師付き学習に取り組む。
論文 参考訳(メタデータ) (2021-07-31T00:08:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。