論文の概要: Parametric PerceptNet: A bio-inspired deep-net trained for Image Quality Assessment
- arxiv url: http://arxiv.org/abs/2412.03210v2
- Date: Mon, 17 Feb 2025 11:53:44 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-02-18 16:13:23.197862
- Title: Parametric PerceptNet: A bio-inspired deep-net trained for Image Quality Assessment
- Title(参考訳): Parametric PerceptNet:画像品質評価のためのバイオインスパイアされたディープネット
- Authors: Jorge Vila-Tomás, Pablo Hernández-Cámara, Valero Laparra, Jesús Malo,
- Abstract要約: パラメトリックニューラルネットワークアーキテクチャを用いて,両世界の長所を組み合わせた視覚モデルを提案する。
パラメトリックモデルは、トレーニング中により良く振る舞うことを示し、視覚モデルとして解釈しやすいことを示す。
- 参考スコア(独自算出の注目度): 0.9999629695552196
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Human vision models are at the core of image processing. For instance, classical approaches to the problem of image quality are based on models that include knowledge about human vision. However, nowadays, deep learning approaches have obtained competitive results by simply approaching this problem as regression of human decisions, and training an standard network on human-rated datasets. These approaches have the advantages of being easily adaptable to a particular problem and they fit very efficiently when data is available. However, mainly due to the excess of parameters, they have the problems of lack of interpretability, and over-fitting. Here we propose a vision model that combines the best of both worlds by using a parametric neural network architecture. We parameterize the layers to have bioplausible functionality, and provide a set of bioplausible parameters. We analyzed different versions of the model and compared it with the non-parametric version. The parametric models achieve a three orders of magnitude reduction in the number of parameters without suffering in regression performance. Furthermore, we show that the parametric models behave better during training and are easier to interpret as vision models. Interestingly, we find that, even initialized with bioplausible trained for regression using human rated datasets, which we call the feature-spreading problem. This suggests that the deep learning approach is inherently flawed, and emphasizes the need to evaluate and train models beyond regression.
- Abstract(参考訳): 人間の視覚モデルは画像処理の中核にある。
例えば、画像品質の問題に対する古典的なアプローチは、人間の視覚に関する知識を含むモデルに基づいている。
しかし、近年では、人間の決定の回帰としてこの問題にアプローチし、人間の評価したデータセット上で標準的なネットワークをトレーニングすることで、ディープラーニングアプローチは競争力のある結果を得た。
これらのアプローチは、特定の問題に容易に適応できるという利点があり、データが利用可能であれば非常に効率的に適合する。
しかし、主にパラメータの過剰のため、解釈可能性の欠如と過度な適合の問題がある。
本稿では、パラメトリックニューラルネットワークアーキテクチャを用いて、両世界の長所を組み合わせたビジョンモデルを提案する。
我々は,これらの層が生物工学的機能を持つようにパラメータ化し,生物工学的パラメータのセットを提供する。
モデルの異なるバージョンを分析し、パラメトリックでないバージョンと比較した。
パラメトリックモデルは、回帰性能に苦しむことなく、パラメータ数を3桁減らすことができる。
さらに、パラメトリックモデルは、トレーニング中により良く振る舞うことを示し、視覚モデルとして解釈しやすいことを示す。
興味深いことに、人間の評価データセットを用いた回帰訓練でトレーニングされたバイオプログレッシブルを初期化したとしても、それは特徴分散問題( feature-spreading problem)と呼ばれる。
これは、ディープラーニングアプローチが本質的に欠陥があることを示唆し、回帰を超えたモデルの評価とトレーニングの必要性を強調している。
関連論文リスト
- Reconstructing Humans with a Biomechanically Accurate Skeleton [55.06027148976482]
本研究では,生体力学的に正確な骨格モデルを用いて,単一の画像から3次元人体を再構築する手法を提案する。
3次元メッシュ回復のための最先端の手法と比較して,我々のモデルは標準ベンチマーク上での競合性能を実現している。
論文 参考訳(メタデータ) (2025-03-27T17:56:24Z) - Scaling Exponents Across Parameterizations and Optimizers [94.54718325264218]
本稿では,先行研究における重要な仮定を考察し,パラメータ化の新たな視点を提案する。
私たちの経験的調査には、3つの組み合わせでトレーニングされた数万のモデルが含まれています。
最高の学習率のスケーリング基準は、以前の作業の仮定から除外されることがよくあります。
論文 参考訳(メタデータ) (2024-07-08T12:32:51Z) - Opinion-Unaware Blind Image Quality Assessment using Multi-Scale Deep Feature Statistics [54.08757792080732]
我々は,事前学習された視覚モデルからの深い特徴を統計的解析モデルと統合して,意見認識のないBIQA(OU-BIQA)を実現することを提案する。
提案モデルは,最先端のBIQAモデルと比較して,人間の視覚的知覚との整合性に優れる。
論文 参考訳(メタデータ) (2024-05-29T06:09:34Z) - Optimizing Dense Feed-Forward Neural Networks [0.0]
本稿では,プルーニングと移動学習に基づくフィードフォワードニューラルネットワークの構築手法を提案する。
提案手法では,パラメータ数を70%以上圧縮できる。
また、ニューラルネットワークをスクラッチからトレーニングしたモデルと元のモデルを比較し、トランスファー学習レベルを評価した。
論文 参考訳(メタデータ) (2023-12-16T23:23:16Z) - Beyond Human Data: Scaling Self-Training for Problem-Solving with Language Models [115.501751261878]
人為的なデータに基づく微調整言語モデル(LM)が普及している。
我々は、スカラーフィードバックにアクセス可能なタスクにおいて、人間のデータを超えることができるかどうか検討する。
ReST$EM$はモデルサイズに好適にスケールし、人間のデータのみによる微調整を大幅に上回っていることがわかった。
論文 参考訳(メタデータ) (2023-12-11T18:17:43Z) - Toward Physically Plausible Data-Driven Models: A Novel Neural Network
Approach to Symbolic Regression [2.7071541526963805]
本稿では,ニューラルネットワークに基づく記号回帰手法を提案する。
非常に小さなトレーニングデータセットとシステムに関する事前知識に基づいて、物理的に妥当なモデルを構築する。
本研究では,TurtleBot 2移動ロボット,磁気操作システム,2つの抵抗の等価抵抗,アンチロックブレーキシステムの長手力の4つの試験システムに対するアプローチを実験的に評価した。
論文 参考訳(メタデータ) (2023-02-01T22:05:04Z) - Quantifying Human Bias and Knowledge to guide ML models during Training [0.0]
トレーニングプロセスに人間を含めることで、歪んだデータセットを扱うための実験的なアプローチを導入する。
我々は、データセットの特徴の重要性をランク付けし、ランクアグリゲーションを通じて、モデルの初期重みバイアスを決定するよう人間に求める。
我々は、集団的人間の偏見によって、機械学習モデルがバイアス標本の代わりに真の人口についての洞察を学習できることを示した。
論文 参考訳(メタデータ) (2022-11-19T20:49:07Z) - Supervised Parameter Estimation of Neuron Populations from Multiple
Firing Events [3.2826301276626273]
本研究では,一対のスパイキング系列とパラメータラベルからなる学習セットから,ニューロン集団のパラメータを自動的に学習する手法について,教師あり学習を通して検討した。
我々は、ニューロンモデルを用いて、異なるパラメータ設定での計算において多くのニューロン集団をシミュレートする。
次に、遺伝的検索、ベイズ逐次推定、ランダムウォーク近似モデルなどの古典的手法と比較する。
論文 参考訳(メタデータ) (2022-10-02T03:17:05Z) - Diversity vs. Recognizability: Human-like generalization in one-shot
generative models [5.964436882344729]
サンプル認識可能性と多様性の2つの軸に沿った1ショット生成モデルを評価するための新しい枠組みを提案する。
まず、GANのようなモデルとVAEのようなモデルが多様性認識性空間の反対側にあることを示す。
対照的に、非絡み合いは、認識可能性の最大化に使用できるパラボラ曲線に沿ってモデルを輸送する。
論文 参考訳(メタデータ) (2022-05-20T13:17:08Z) - Uninorm-like parametric activation functions for human-understandable
neural models [0.8808021343665319]
入力特徴間の人間の理解可能な接続を見つけるための深層学習モデルを提案する。
提案手法では,ファジィ論理と多条件決定の理論的背景に基づいて,パラメータ化・微分可能なアクティベーション関数を用いる。
UCI Machine Learning Repositoryの分類問題に適用することで,モデルの有用性と有効性を示す。
論文 参考訳(メタデータ) (2022-05-13T10:25:02Z) - LatentHuman: Shape-and-Pose Disentangled Latent Representation for Human
Bodies [78.17425779503047]
本稿では,人体に対する新しい暗黙の表現法を提案する。
完全に微分可能で、非交叉形状で最適化可能であり、潜在空間を映し出す。
我々のモデルは、よく設計された損失を伴う、水密でない生データを直接訓練し、微調整することができる。
論文 参考訳(メタデータ) (2021-11-30T04:10:57Z) - Towards a Unified View of Parameter-Efficient Transfer Learning [108.94786930869473]
下流タスクにおける大規模事前学習言語モデルの微調整は、NLPにおけるデファクト学習パラダイムとなっている。
近年の研究では,少数の(外部)パラメータのみを微調整するだけで高い性能が得られるパラメータ効率の伝達学習法が提案されている。
我々は、最先端のパラメータ効率変換学習手法の設計を分解し、それらの相互接続を確立する統一的なフレームワークを提案する。
論文 参考訳(メタデータ) (2021-10-08T20:22:26Z) - Probabilistic Modeling for Human Mesh Recovery [73.11532990173441]
本稿では,2次元の証拠から3次元の人体復元の問題に焦点を当てた。
我々は,この問題を,入力から3Dポーズの分布へのマッピング学習として再考した。
論文 参考訳(メタデータ) (2021-08-26T17:55:11Z) - STAR: Sparse Transformer-based Action Recognition [61.490243467748314]
本研究は,空間的次元と時間的次元に細かな注意を払っている新しいスケルトンに基づく人間行動認識モデルを提案する。
実験により、トレーニング可能なパラメータをはるかに少なくし、トレーニングや推論の高速化を図りながら、モデルが同等のパフォーマンスを達成できることが示されている。
論文 参考訳(メタデータ) (2021-07-15T02:53:11Z) - Partial success in closing the gap between human and machine vision [30.78663978510427]
数年前、最初のCNNがImageNetで人間のパフォーマンスを上回った。
人間のビジョンとマシンビジョンのギャップを埋める作業は進んでいますか?
我々は、広範囲なアウト・オブ・ディストリビューション(OOD)データセット上で、人間のオブザーバをテストした。
論文 参考訳(メタデータ) (2021-06-14T13:23:35Z) - Provable Benefits of Overparameterization in Model Compression: From
Double Descent to Pruning Neural Networks [38.153825455980645]
最近の実証的な証拠は、オーバライゼーションの実践が大きなモデルのトレーニングに利益をもたらすだけでなく、軽量モデルの構築を支援することも示している。
本稿では,モデル刈り込みの高次元ツールセットを理論的に特徴付けることにより,これらの経験的発見に光を当てる。
もっとも情報に富む特徴の位置が分かっていても、我々は大きなモデルに適合し、刈り取るのがよい体制を解析的に特定する。
論文 参考訳(メタデータ) (2020-12-16T05:13:30Z) - Reinforcement Based Learning on Classification Task Could Yield Better
Generalization and Adversarial Accuracy [0.0]
画像分類タスクを用いて深層学習モデルを訓練する新しい手法を提案する。
強化学習におけるバニラポリシー勾配法に類似した報酬に基づく最適化関数を用いる。
論文 参考訳(メタデータ) (2020-12-08T11:03:17Z) - Hidden Footprints: Learning Contextual Walkability from 3D Human Trails [70.01257397390361]
現在のデータセットは、人々がどこにいるか、どこにいるかを教えてくれません。
まず、画像間で人の観察を伝播させ、3D情報を利用して、私たちが「隠れ足跡」と呼ぶものを作成することで、有効なラベル付き歩行可能領域の集合を拡大する。
このようなスパースラベルのために設計されたトレーニング戦略を考案し、クラスバランスの分類損失と文脈逆転損失を組み合わせた。
論文 参考訳(メタデータ) (2020-08-19T23:19:08Z) - Neural Descent for Visual 3D Human Pose and Shape [67.01050349629053]
入力RGB画像から3次元のポーズと形状を復元するディープニューラルネットワーク手法を提案する。
我々は最近導入された表現力のあるボディ統計モデルGHUMに頼っている。
我々の方法論の中心は、HUmanNeural Descent (HUND)と呼ばれるアプローチの学習と最適化である。
論文 参考訳(メタデータ) (2020-08-16T13:38:41Z) - A Semiparametric Approach to Interpretable Machine Learning [9.87381939016363]
機械学習におけるブラックボックスモデルは、複雑な問題と高次元設定において優れた予測性能を示した。
透明性と解釈可能性の欠如は、重要な意思決定プロセスにおけるそのようなモデルの適用性を制限します。
半パラメトリック統計学のアイデアを用いて予測モデルにおける解釈可能性と性能のトレードオフを行う新しい手法を提案する。
論文 参考訳(メタデータ) (2020-06-08T16:38:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。