論文の概要: Accuracy Does Not Guarantee Human-Likeness in Monocular Depth Estimators
- arxiv url: http://arxiv.org/abs/2512.08163v1
- Date: Tue, 09 Dec 2025 01:42:00 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-10 22:28:07.779972
- Title: Accuracy Does Not Guarantee Human-Likeness in Monocular Depth Estimators
- Title(参考訳): 単眼深度推定器の精度は人間らしくない
- Authors: Yuki Kubota, Taiki Fukiage,
- Abstract要約: ディープニューラルネットワーク(DNN)は、物理ベースのベンチマークで超人的精度を達成した。
単眼深度推定は、自律運転やロボット工学のような現実世界のアプリケーションにとって基本的な能力である。
物体認識の研究は、モデル精度と人間のような振る舞いの間の複雑なトレードオフを明らかにしている。
- 参考スコア(独自算出の注目度): 2.466518228012258
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Monocular depth estimation is a fundamental capability for real-world applications such as autonomous driving and robotics. Although deep neural networks (DNNs) have achieved superhuman accuracy on physical-based benchmarks, a key challenge remains: aligning model representations with human perception, a promising strategy for enhancing model robustness and interpretability. Research in object recognition has revealed a complex trade-off between model accuracy and human-like behavior, raising a question whether a similar divergence exist in depth estimation, particularly for natural outdoor scenes where benchmarks rely on sensor-based ground truth rather than human perceptual estimates. In this study, we systematically investigated the relationship between model accuracy and human similarity across 69 monocular depth estimators using the KITTI dataset. To dissect the structure of error patterns on a factor-by-factor basis, we applied affine fitting to decompose prediction errors into interpretable components. Intriguingly, our results reveal while humans and DNNs share certain estimation biases (positive error correlations), we observed distinct trade-off relationships between model accuracy and human similarity. This finding indicates that improving accuracy does not necessarily lead to more human-like behavior, underscoring the necessity of developing multifaceted, human-centric evaluations beyond traditional accuracy.
- Abstract(参考訳): 単眼深度推定は、自律運転やロボット工学のような現実世界のアプリケーションにとって基本的な能力である。
ディープニューラルネットワーク(DNN)は、物理ベースのベンチマークで超人的精度を達成したが、重要な課題は、モデル表現と人間の知覚との整合、モデルの堅牢性と解釈可能性を高めるための有望な戦略である。
物体認識の研究は、モデル精度と人間のような行動の複雑なトレードオフを明らかにしており、特に、ベンチマークが人間の知覚的推定ではなくセンサーに基づく真実に依存する自然の屋外のシーンにおいて、同様の違いが存在するかどうかという疑問が提起されている。
本研究では,KITTIデータセットを用いて,69個の単眼深度推定器のモデル精度と人間類似度との関係を系統的に検討した。
因子単位の誤差パターンの構造を分解するため,予測誤差を解釈可能な成分に分解するためにアフィンフィッティングを適用した。
興味深いことに、人間とDNNは特定の推定バイアス(正の誤差相関)を共有している一方で、モデルの精度と人間の類似性の間には、明確なトレードオフ関係が観察されている。
この発見は、精度の向上が必ずしも人間のような行動を引き起こすとは限らないことを示し、従来の精度を超えて、多面的、人間中心の評価を開発する必要性を強調している。
関連論文リスト
- The Impact of Concept Explanations and Interventions on Human-Machine Collaboration [0.03999851878220877]
CBM(Concept Bottleneck Models)は、タスクラベルを予測するための中間ステップとして、人間定義の概念を予測するために導入された。
CBMは標準的なディープニューラルネットワーク(DNN)と比較して解釈性を改善する
しかし、このアライメントの増加はタスクの精度を大幅に向上させるには至らなかった。
論文 参考訳(メタデータ) (2025-10-19T16:44:24Z) - Uncertainty Estimation by Human Perception versus Neural Models [7.273936646577467]
現代のニューラルネットワーク(NN)はしばしば高い予測精度を達成するが、キャリブレーションが不十分である。
NNが推定した不確実性と人間の不確実性について検討する。
論文 参考訳(メタデータ) (2025-06-18T20:00:20Z) - CogDPM: Diffusion Probabilistic Models via Cognitive Predictive Coding [62.075029712357]
本研究は認知拡散確率モデル(CogDPM)を紹介する。
CogDPMは拡散モデルの階層的サンプリング能力に基づく精度推定法と拡散モデル固有の性質から推定される精度重み付きガイダンスを備える。
我々は,Universal Kindomの降水量と表面風速データセットを用いた実世界の予測タスクにCogDPMを適用した。
論文 参考訳(メタデータ) (2024-05-03T15:54:50Z) - Empirical Estimates on Hand Manipulation are Recoverable: A Step Towards
Individualized and Explainable Robotic Support in Everyday Activities [80.37857025201036]
ロボットシステムの鍵となる課題は、他のエージェントの振る舞いを理解することである。
正しい推論の処理は、(衝突)因子が実験的に制御されない場合、特に困難である。
人に関する観察研究を行うために必要なツールをロボットに装備することを提案する。
論文 参考訳(メタデータ) (2022-01-27T22:15:56Z) - Improving Prediction of Cognitive Performance using Deep Neural Networks
in Sparse Data [2.867517731896504]
MIDUS(Midlife in the United States)の観察・コホート研究から得られたデータを用いて,エグゼクティブ機能とエピソード記憶測定をモデル化した。
ディープニューラルネットワーク(DNN)モデルは、認知パフォーマンス予測タスクの中で一貫して最高である。
論文 参考訳(メタデータ) (2021-12-28T22:23:08Z) - Residual Error: a New Performance Measure for Adversarial Robustness [85.0371352689919]
ディープラーニングの広く普及を制限する大きな課題は、敵の攻撃に対する脆弱さである。
本研究は,ディープニューラルネットワークの対角強靭性を評価するための新しい性能尺度である残留誤差の概念を提示する。
画像分類を用いた実験結果から,提案手法の有効性と有効性を示した。
論文 参考訳(メタデータ) (2021-06-18T16:34:23Z) - Interpretable Social Anchors for Human Trajectory Forecasting in Crowds [84.20437268671733]
本研究では,人混みの軌跡を予測できるニューラルネットワークシステムを提案する。
解釈可能なルールベースのインテントを学び、ニューラルネットワークの表現可能性を利用してシーン固有の残差をモデル化する。
私たちのアーキテクチャは、インタラクション中心のベンチマークTrajNet++でテストされています。
論文 参考訳(メタデータ) (2021-05-07T09:22:34Z) - Firearm Detection via Convolutional Neural Networks: Comparing a
Semantic Segmentation Model Against End-to-End Solutions [68.8204255655161]
武器の脅威検出とライブビデオからの攻撃的な行動は、潜在的に致命的な事故の迅速検出と予防に使用できる。
これを実現する一つの方法は、人工知能と、特に画像分析のための機械学習を使用することです。
従来のモノリシックなエンド・ツー・エンドのディープラーニングモデルと、セマンティクスセグメンテーションによって火花を検知する単純なニューラルネットワークのアンサンブルに基づく前述したモデルを比較した。
論文 参考訳(メタデータ) (2020-12-17T15:19:29Z) - Accurate and Robust Feature Importance Estimation under Distribution
Shifts [49.58991359544005]
PRoFILEは、新しい特徴重要度推定法である。
忠実さと頑健さの両面で、最先端のアプローチよりも大幅に改善されていることを示す。
論文 参考訳(メタデータ) (2020-09-30T05:29:01Z) - Beyond accuracy: quantifying trial-by-trial behaviour of CNNs and humans
by measuring error consistency [10.028543085687803]
認知科学と行動神経科学における中心的な問題は、2つ以上の意思決定者(脳かアルゴリズムか)が同じ戦略を使用するかどうかを確認することである。
2つの意思決定システムが同一入力に対してシステム的にエラーを発生させるかどうかを定量化するための定量的解析であるトライアル・バイ・トライアル・エラー整合性を導入する。
論文 参考訳(メタデータ) (2020-06-30T12:47:17Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。