論文の概要: BioBench: A Blueprint to Move Beyond ImageNet for Scientific ML Benchmarks
- arxiv url: http://arxiv.org/abs/2511.16315v1
- Date: Thu, 20 Nov 2025 12:46:33 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-21 17:08:52.619728
- Title: BioBench: A Blueprint to Move Beyond ImageNet for Scientific ML Benchmarks
- Title(参考訳): BioBench: 科学的MLベンチマークのためのImageNetを超えるブループリント
- Authors: Samuel Stevens,
- Abstract要約: ImageNet-1K リニアプローブ転送精度は、ビジュアル表現品質のデフォルトプロキシのままである。
ImageNetが見逃すものをキャプチャするオープンエコロジービジョンベンチマークであるBioBenchを紹介します。
- 参考スコア(独自算出の注目度): 0.6767284153404262
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: ImageNet-1K linear-probe transfer accuracy remains the default proxy for visual representation quality, yet it no longer predicts performance on scientific imagery. Across 46 modern vision model checkpoints, ImageNet top-1 accuracy explains only 34% of variance on ecology tasks and mis-ranks 30% of models above 75% accuracy. We present BioBench, an open ecology vision benchmark that captures what ImageNet misses. BioBench unifies 9 publicly released, application-driven tasks, 4 taxonomic kingdoms, and 6 acquisition modalities (drone RGB, web video, micrographs, in-situ and specimen photos, camera-trap frames), totaling 3.1M images. A single Python API downloads data, fits lightweight classifiers to frozen backbones, and reports class-balanced macro-F1 (plus domain metrics for FishNet and FungiCLEF); ViT-L models evaluate in 6 hours on an A6000 GPU. BioBench provides new signal for computer vision in ecology and a template recipe for building reliable AI-for-science benchmarks in any domain. Code and predictions are available at https://github.com/samuelstevens/biobench and results at https://samuelstevens.me/biobench.
- Abstract(参考訳): ImageNet-1Kリニアプローブ転送精度は、画像表現品質のデフォルトプロキシのままだが、もはや科学的画像のパフォーマンスを予測していない。
46のモダンなビジョンモデルチェックポイントで、ImageNet Top-1の精度は、生態学的なタスクにおける分散の34%しか説明せず、75%以上のモデルの30%を誤ランクしている。
ImageNetが見逃すものをキャプチャするオープンエコロジービジョンベンチマークであるBioBenchを紹介します。
BioBenchは、9つの公開リリース、アプリケーション駆動タスク、4つの分類学的キングダム、6つの取得モダリティ(ドロンのRGB、Webビデオ、マイクログラフ、in-situおよびサンプル写真、カメラトラップフレーム)を統合し、合計310万枚の画像を生成する。
単一のPython APIがデータをダウンロードし、軽量な分類器をフリーズバックボーンに適合させ、クラスバランスのマクロF1(FishNetとFungiCLEFのドメインメトリクスも含む)を報告している。
BioBenchは、エコロジーにおけるコンピュータビジョンのための新しい信号と、任意のドメインで信頼できるAI-科学ベンチマークを構築するためのテンプレートレシピを提供する。
コードと予測はhttps://github.com/samuelstevens/biobenchで、結果はhttps://samuelstevens.me/biobenchで入手できる。
関連論文リスト
- BioAutoML-NAS: An End-to-End AutoML Framework for Multimodal Insect Classification via Neural Architecture Search on Large-Scale Biodiversity Data [2.629942857823441]
画像やメタデータを含むマルチモーダルデータを用いた最初のBioAutoMLモデルであるBioAutoML-NASを提案する。
マルチモーダル融合モジュールは、画像埋め込みとメタデータを組み合わせることで、視覚的および分類的生物学的情報の両方を使って昆虫を分類することができる。
BIOSCAN-5Mデータセットの大規模な評価は、BioAutoML-NASが96.81%の精度、97.46%の精度、96.81%のリコール、97.05%のF1スコアを達成したことを示している。
論文 参考訳(メタデータ) (2025-10-07T13:00:12Z) - BioLite U-Net: Edge-Deployable Semantic Segmentation for In Situ Bioprinting Monitoring [1.2006896500048554]
リアルタイムバイオプリンティングに適した,軽量なセマンティックセマンティックセマンティクスフレームワークを提案する。
バイオプリンティングの過程で得られた787枚のRGB画像からなる新しいデータセットを,ノズル,バイオリンク,背景の3つのクラスにラベル付けした。
提案手法は,平均的インターセクションオーバーユニオン(mIoU),Diceスコア,画素精度を用いて,MobileNetV2およびMobileNetV3ベースのセグメンテーションベースラインに対してベンチマークを行った。
論文 参考訳(メタデータ) (2025-09-08T13:44:55Z) - ImageNet-D: Benchmarking Neural Network Robustness on Diffusion Synthetic Object [78.58860252442045]
我々は、深層モデルの堅牢性をベンチマークするハードイメージのためのデータソースとして、生成モデルを紹介した。
このベンチマークを ImageNet-D と呼ぶ以前の作業よりも、背景、テクスチャ、材料が多様化したイメージを生成することができます。
我々の研究は、拡散モデルが視覚モデルをテストするのに効果的な情報源となることを示唆している。
論文 参考訳(メタデータ) (2024-03-27T17:23:39Z) - Yin Yang Convolutional Nets: Image Manifold Extraction by the Analysis
of Opposites [1.1560177966221703]
Yin Yang Convolutional Networkは、視覚多様体を抽出するアーキテクチャである。
最初のモデルでは、テスト精度93.32%に達し、このカテゴリーでは古いSOTAよりも0.8%高かった。
ImageNetでも分析を行い、1.6Mパラメータで66.49%の精度で検証しました。
論文 参考訳(メタデータ) (2023-10-24T19:48:07Z) - Building Flyweight FLIM-based CNNs with Adaptive Decoding for Object
Detection [40.97322222472642]
本研究では、ユーザ描画マーカーからオブジェクトを検出するために、畳み込みニューラルネットワーク(CNN)層を構築する方法を提案する。
糞便サンプルの顕微鏡画像におけるSchistosomiasis mansoni卵の検出と,衛星画像における船舶の検出に対処する。
我々のCNNは、SOTAオブジェクト検出器より数千倍も小さく、CPU実行に適している。
論文 参考訳(メタデータ) (2023-06-26T16:48:20Z) - Improving Zero-shot Generalization and Robustness of Multi-modal Models [70.14692320804178]
CLIPやLiTのようなマルチモーダルな画像テキストモデルは、画像分類ベンチマークで顕著な性能を示している。
本研究は,この性能差の原因を考察し,テキストプロンプトの曖昧さによる障害事例の多くが原因であることを示す。
本稿では,WordNet階層を用いて,不確実な画像の精度を向上させるための簡易かつ効率的な手法を提案する。
論文 参考訳(メタデータ) (2022-12-04T07:26:24Z) - Portuguese Man-of-War Image Classification with Convolutional Neural
Networks [58.720142291102135]
ポルトガルマン・オブ・ウォー(ポルトガル語: Man-of-war、PMW)は、長い触手を持つゼラチン質の生物である。
本稿では,InstagramのソーシャルメディアからPMW画像を認識するための畳み込みニューラルネットワークの利用について報告する。
論文 参考訳(メタデータ) (2022-07-04T03:06:45Z) - Focal Modulation Networks [105.93086472906765]
自己注意(SA)は完全に焦点変調ネットワーク(FocalNet)に置き換えられる
ImageNet-1Kの精度は82.3%、83.9%である。
FocalNetsは下流のタスクに転送する際、顕著な優位性を示す。
論文 参考訳(メタデータ) (2022-03-22T17:54:50Z) - CytoImageNet: A large-scale pretraining dataset for bioimage transfer
learning [1.7188280334580197]
CytoImageNetは大規模な顕微鏡画像データセット(890K画像、894クラス)
我々は,CytoImageNetがImageNetで訓練された機能では利用できない情報をキャプチャーする証拠を示す。
データセットはhttps://www.kaggle.com/stanleyhua/cytoimagenet.comで公開されている。
論文 参考訳(メタデータ) (2021-11-23T04:37:15Z) - Combined Scaling for Zero-shot Transfer Learning [146.0851484769142]
我々は,ImageNet ILSVRC-2012バリデーションセットにおいて,85.7%のトップ1の精度を達成できるBASICと組み合わせたスケーリング手法を提案する。
この精度はCLIPとALIGNの9.3%を超える。
我々のモデルは、ロバストネスベンチマークの大幅な改善も示しています。
論文 参考訳(メタデータ) (2021-11-19T05:25:46Z) - SimMIM: A Simple Framework for Masked Image Modeling [29.015777125540613]
本稿では,マスク画像モデリングのためのシンプルなフレームワークであるSimについて述べる。
フレームワークの主要なコンポーネントについて検討し、各コンポーネントのシンプルな設計が、非常に強力な表現学習性能を示した。
また、このアプローチを利用して3Bモデルのトレーニングをしやすくし、従来の4つの代表的なビジョンベンチマークよりも40ドル安いデータで、最先端の4つのビジョンベンチマークを実現しています。
論文 参考訳(メタデータ) (2021-11-18T18:59:45Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。