論文の概要: From Images to Point Clouds: An Efficient Solution for Cross-media Blind Quality Assessment without Annotated Training
- arxiv url: http://arxiv.org/abs/2501.13387v1
- Date: Thu, 23 Jan 2025 05:15:10 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-01-24 15:57:25.441072
- Title: From Images to Point Clouds: An Efficient Solution for Cross-media Blind Quality Assessment without Annotated Training
- Title(参考訳): 画像から点雲へ:注釈なしのマルチメディアブラインド品質評価の効率的解法
- Authors: Yipeng Liu, Qi Yang, Yujie Zhang, Yiling Xu, Le Yang, Zhu Li,
- Abstract要約: アノテーションを使用せずに新たなシーンから点雲の知覚的品質を予測できる新しい品質評価手法を提案する。
メディアの種類に関わらず,人間の視覚システム(HVS)を品質評価の意思決定者と認識することで,ニューラルネットワークによる人間の知覚評価基準をエミュレートすることができる。
本稿では,既存/推定歪み分布を逆DAフレームワークに統合する歪み誘導型特徴アライメントを提案する。
- 参考スコア(独自算出の注目度): 35.45364402708792
- License:
- Abstract: We present a novel quality assessment method which can predict the perceptual quality of point clouds from new scenes without available annotations by leveraging the rich prior knowledge in images, called the Distribution-Weighted Image-Transferred Point Cloud Quality Assessment (DWIT-PCQA). Recognizing the human visual system (HVS) as the decision-maker in quality assessment regardless of media types, we can emulate the evaluation criteria for human perception via neural networks and further transfer the capability of quality prediction from images to point clouds by leveraging the prior knowledge in the images. Specifically, domain adaptation (DA) can be leveraged to bridge the images and point clouds by aligning feature distributions of the two media in the same feature space. However, the different manifestations of distortions in images and point clouds make feature alignment a difficult task. To reduce the alignment difficulty and consider the different distortion distribution during alignment, we have derived formulas to decompose the optimization objective of the conventional DA into two suboptimization functions with distortion as a transition. Specifically, through network implementation, we propose the distortion-guided biased feature alignment which integrates existing/estimated distortion distribution into the adversarial DA framework, emphasizing common distortion patterns during feature alignment. Besides, we propose the quality-aware feature disentanglement to mitigate the destruction of the mapping from features to quality during alignment with biased distortions. Experimental results demonstrate that our proposed method exhibits reliable performance compared to general blind PCQA methods without needing point cloud annotations.
- Abstract(参考訳): 本稿では,DWIT-PCQA(Dis Distribution-Weighted Image-Transferred Point Cloud Quality Assessment)と呼ばれる,画像の豊富な事前知識を活用することで,アノテーションのない新たなシーンから点雲の知覚品質を予測できる新しい品質評価手法を提案する。
メディアの種類に関わらず、人間の視覚システム(HVS)を品質評価の意思決定者として認識することで、ニューラルネットワークを介して人間の知覚の評価基準をエミュレートし、画像の事前の知識を活用して、画像から点雲への品質予測能力の伝達を可能にする。
具体的には、ドメイン適応(DA)を利用して、2つのメディアの特徴分布を同じ特徴空間に整列させることで、画像と点雲をブリッジすることができる。
しかし、画像と点雲の歪みの相違は、特徴のアライメントを難しくする。
本研究では、アライメントの難しさを低減し、アライメント中の異なる歪み分布を考慮すべく、従来のDAの最適化目標を2つのサブ最適化関数に分解する導出式を導出した。
具体的には、ネットワーク実装を通じて、既存の/推定歪み分布を逆DAフレームワークに統合する歪み誘導型特徴アライメントを提案し、特徴アライメント中に共通の歪みパターンを強調する。
さらに, 特徴量から品質への写像の破壊を, 偏りのある歪みに合わせて緩和するために, 品質に配慮した特徴の絡み合わせを提案する。
実験により,本手法は点点クラウドアノテーションを必要とせず,一般的な盲点PCQA法と比較して信頼性の高い性能を示すことが示された。
関連論文リスト
- Contrastive Pre-Training with Multi-View Fusion for No-Reference Point Cloud Quality Assessment [49.36799270585947]
No-Reference Point Cloud Quality Assessment (NR-PCQA) は、歪んだ点雲の知覚的品質を、参照なしで自動的に評価することを目的としている。
我々は,PCQA(CoPA)に適した新しいコントラスト付き事前学習フレームワークを提案する。
提案手法は,最新のPCQA手法よりも高い性能を示す。
論文 参考訳(メタデータ) (2024-03-15T07:16:07Z) - PAME: Self-Supervised Masked Autoencoder for No-Reference Point Cloud Quality Assessment [34.256276774430575]
no-reference point cloud quality Assessment (NR-PCQA) は、参照なしでポイントクラウドの知覚的品質を自動的に予測することを目的としている。
本稿では,マスク付きオートエンコーダ(PAME)を用いた自己教師型事前学習フレームワークを提案する。
提案手法は,予測精度と一般化性の観点から,最新のNR-PCQA法よりも高い性能を示す。
論文 参考訳(メタデータ) (2024-03-15T07:01:33Z) - Adaptive Feature Selection for No-Reference Image Quality Assessment by Mitigating Semantic Noise Sensitivity [55.399230250413986]
上流タスクから有害なセマンティックノイズを除去するためのQFM-IQM(Quality-Aware Feature Matching IQA Metric)を提案する。
提案手法は,8つの標準IQAデータセット上での最先端NR-IQA法よりも優れた性能を実現する。
論文 参考訳(メタデータ) (2023-12-11T06:50:27Z) - Simple Baselines for Projection-based Full-reference and No-reference
Point Cloud Quality Assessment [60.2709006613171]
投影型ポイントクラウド品質評価(PCQA)のための簡易ベースラインを提案する。
我々は、全参照(FR)タスクと非参照(NR)PCQAタスクの両方に対して、点雲から共通立方体状の投影プロセスによって得られる多重射影を用いる。
ICIP 2023 PCVQA Challengeに参加して,5トラック中4トラックで首位を獲得した。
論文 参考訳(メタデータ) (2023-10-26T04:42:57Z) - Reduced-Reference Quality Assessment of Point Clouds via
Content-Oriented Saliency Projection [17.983188216548005]
多くの高密度な3Dポイントクラウドは、従来の画像やビデオではなく、視覚オブジェクトを表現するために利用されてきた。
本稿では, 点雲に対する新しい, 効率的な還元参照品質指標を提案する。
論文 参考訳(メタデータ) (2023-01-18T18:00:29Z) - No-Reference Point Cloud Quality Assessment via Domain Adaptation [31.280188860021248]
本稿では,3次元点雲に対する画像伝達点雲品質評価(IT-PCQA)の新たな非参照品質評価指標を提案する。
特に,自然画像をソース領域として,点雲を対象領域として扱うとともに,教師なしの敵領域適応により点雲の品質を推定する。
実験結果から,提案手法は従来のノン参照指標よりも高い性能が得られることが示された。
論文 参考訳(メタデータ) (2021-12-06T08:20:40Z) - Image Quality Assessment using Contrastive Learning [50.265638572116984]
我々は、補助的な問題を解決するために、対照的な対の目的を用いて深層畳み込みニューラルネットワーク(CNN)を訓練する。
本研究では,最新のNR画像品質モデルと比較して,ContriQUEが競争性能を向上することを示す。
以上の結果から,大きなラベル付き主観的画像品質データセットを必要とせずに,知覚的関連性を持つ強力な品質表現が得られることが示唆された。
論文 参考訳(メタデータ) (2021-10-25T21:01:00Z) - No-Reference Image Quality Assessment by Hallucinating Pristine Features [24.35220427707458]
本稿では,特徴レベルの擬似参照(PR)幻覚を用いた非参照画像品質評価(IQA)手法を提案する。
提案手法の有効性を4つのIQAデータベースで実証した。
論文 参考訳(メタデータ) (2021-08-09T16:48:34Z) - Unpaired Image Enhancement with Quality-Attention Generative Adversarial
Network [92.01145655155374]
品質の注意を払わないデータに基づいて訓練された生成敵対ネットワーク(QAGAN)を提案する。
提案されたQAGANの重要な新規性は、ジェネレータの注入されたQAMにある。
提案手法は客観的評価と主観評価の両方において良好な性能を実現する。
論文 参考訳(メタデータ) (2020-12-30T05:57:20Z) - Towards Unsupervised Deep Image Enhancement with Generative Adversarial
Network [92.01145655155374]
監視されていない画像強調生成ネットワーク(UEGAN)を提案する。
教師なしの方法で所望の特性を持つ画像の集合から、対応する画像と画像のマッピングを学習する。
その結果,提案モデルは画像の美的品質を効果的に向上することがわかった。
論文 参考訳(メタデータ) (2020-12-30T03:22:46Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。