論文の概要: A Rigorous Behavior Assessment of CNNs Using a Data-Domain Sampling Regime
- arxiv url: http://arxiv.org/abs/2507.03866v1
- Date: Sat, 05 Jul 2025 02:30:28 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-08 15:46:34.912391
- Title: A Rigorous Behavior Assessment of CNNs Using a Data-Domain Sampling Regime
- Title(参考訳): データ領域サンプリングレジームを用いたCNNの厳密な行動評価
- Authors: Shuning Jiang, Wei-Lun Chao, Daniel Haehn, Hanspeter Pfister, Jian Chen,
- Abstract要約: CNNの知覚行動の定量化のためのデータ領域サンプリング方式を提案する。
我々は、800のCNNモデルから1600万の試行と、113人の被験者から6,825の試行を分析した。
CNNは人間よりも優れており、そのバイアスは単にトレーニングとテストの距離に依存する。
- 参考スコア(独自算出の注目度): 45.811693023520036
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We present a data-domain sampling regime for quantifying CNNs' graphic perception behaviors. This regime lets us evaluate CNNs' ratio estimation ability in bar charts from three perspectives: sensitivity to training-test distribution discrepancies, stability to limited samples, and relative expertise to human observers. After analyzing 16 million trials from 800 CNNs models and 6,825 trials from 113 human participants, we arrived at a simple and actionable conclusion: CNNs can outperform humans and their biases simply depend on the training-test distance. We show evidence of this simple, elegant behavior of the machines when they interpret visualization images. osf.io/gfqc3 provides registration, the code for our sampling regime, and experimental results.
- Abstract(参考訳): CNNの知覚行動の定量化のためのデータ領域サンプリング方式を提案する。
本システムでは,バーチャートにおけるCNNの比率推定能力を,トレーニング-テスト分布の差異に対する感受性,限られたサンプルに対する安定性,人間の観察者に対する相対的専門性という3つの視点から評価することができる。
800台のCNNモデルから1600万回、そして113名の人間の被験者から6,825回の試行を分析した結果、私たちはシンプルで行動可能な結論に達した。
可視化画像の解釈において,この単純でエレガントな動作を示す。
osf.io/gfqc3は、登録、サンプリングシステムのためのコード、実験結果を提供する。
関連論文リスト
- Analytical Calculation of Weights Convolutional Neural Network [0.0]
本稿では,畳み込みニューラルネットワーク(CNN)の重みと閾値を,標準的な訓練手順を使わずに解析的に計算するアルゴリズムを提案する。
このアルゴリズムは、MNISTデータセットから選ばれた10の画像に基づいて、CNNパラメータを決定できる。
論文 参考訳(メタデータ) (2025-05-26T19:17:19Z) - Benchmarking Out-of-Distribution Generalization Capabilities of DNN-based Encoding Models for the Ventral Visual Cortex [26.91313901714098]
textitMacaqueITBenchは、マカク下側頭葉(IT)皮質からの神経集団反応の大規模なデータセットである。
画像からOF-Distribution(OOD)トレインとテストスプリットに分割し,神経活動を予測するモデルに対する分布シフトの影響を検討した。
論文 参考訳(メタデータ) (2024-06-16T20:33:57Z) - Severity classification of ground-glass opacity via 2-D convolutional
neural network and lung CT scans: a 3-day exploration [0.0]
グラウンドグラスの不透明度は、COVID-19や肺炎、肺線維症、結核など、多くの肺疾患の指標である。
本稿では,3日間にわたって実施,テストされた概念実証フレームワークについて,第3の課題である「COVID-19コンペティション」による実験的結果を示す。
課題の要件の一部として、このエクササイズ中に生成されたソースコードはhttps://github.com/lisatwyw/cov19.comに投稿されている。
論文 参考訳(メタデータ) (2023-03-23T22:35:37Z) - Adaptive Siamese Tracking with a Compact Latent Network [219.38172719948048]
追跡タスクを分類に変換することで,シームズをベースとしたトラッカーを簡易化する直感的なビューを提供する。
そこで本研究では,視覚シミュレーションと実追跡例を用いて,詳細な解析を行う。
そこで我々は,古典的なSiamRPN++,SiamFC,SiamBANの3つのトラッカーを調整した。
論文 参考訳(メタデータ) (2023-02-02T08:06:02Z) - Decoupled Mixup for Generalized Visual Recognition [71.13734761715472]
視覚認識のためのCNNモデルを学習するための新しい「デカップリング・ミクスアップ」手法を提案する。
本手法は,各画像を識別領域と雑音発生領域に分離し,これらの領域を均一に組み合わせてCNNモデルを訓練する。
実験結果から,未知のコンテキストからなるデータに対する本手法の高一般化性能を示す。
論文 参考訳(メタデータ) (2022-10-26T15:21:39Z) - Active Learning for Deep Visual Tracking [51.5063680734122]
畳み込みニューラルネットワーク(CNN)は近年,単一目標追跡タスクに成功している。
本稿では,ディープ・ビジュアル・トラッキングのためのアクティブ・ラーニング手法を提案する。
アクティブラーニングの指導のもと、トレーニングされた深層CNNモデルに基づくトラッカーは、ラベリングコストを低減しつつ、競合的なトラッキング性能を達成することができる。
論文 参考訳(メタデータ) (2021-10-17T11:47:56Z) - On the Performance of Convolutional Neural Networks under High and Low
Frequency Information [13.778851745408133]
画像の高周波・低周波情報に対するCNNモデルの性能について検討する。
トレーニング中のフィルタリングに基づくデータ拡張を提案する。
堅牢性と低周波の一般化の観点から,良好な性能向上が観察されている。
論文 参考訳(メタデータ) (2020-10-30T17:54:45Z) - Deep learning for gravitational-wave data analysis: A resampling
white-box approach [62.997667081978825]
我々は、LIGO検出器からの単一干渉計データを用いて、畳み込みニューラルネットワーク(CNN)を用いて、コンパクトなバイナリコレッセンスにおける重力波(GW)信号を検出する。
CNNはノイズを検出するのに非常に正確だが、GW信号のリコールに十分な感度がないため、CNNはGWトリガの生成よりもノイズ低減に適している。
論文 参考訳(メタデータ) (2020-09-09T03:28:57Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。