論文の概要: Helping Visually Impaired People Take Better Quality Pictures
- arxiv url: http://arxiv.org/abs/2305.08066v1
- Date: Sun, 14 May 2023 04:37:53 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-16 17:53:24.597863
- Title: Helping Visually Impaired People Take Better Quality Pictures
- Title(参考訳): 視覚障害者の画質向上を助ける
- Authors: Maniratnam Mandal, Deepti Ghadiyaram, Danna Gurari, and Alan C. Bovik
- Abstract要約: 我々は、視覚障害者が共通の技術的歪みの発生を最小限に抑えるためのツールを開発する。
また、ユーザによる品質問題の緩和を支援する、プロトタイプのフィードバックシステムも作成しています。
- 参考スコア(独自算出の注目度): 52.03016269364854
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Perception-based image analysis technologies can be used to help visually
impaired people take better quality pictures by providing automated guidance,
thereby empowering them to interact more confidently on social media. The
photographs taken by visually impaired users often suffer from one or both of
two kinds of quality issues: technical quality (distortions), and semantic
quality, such as framing and aesthetic composition. Here we develop tools to
help them minimize occurrences of common technical distortions, such as blur,
poor exposure, and noise. We do not address the complementary problems of
semantic quality, leaving that aspect for future work. The problem of assessing
and providing actionable feedback on the technical quality of pictures captured
by visually impaired users is hard enough, owing to the severe, commingled
distortions that often occur. To advance progress on the problem of analyzing
and measuring the technical quality of visually impaired user-generated content
(VI-UGC), we built a very large and unique subjective image quality and
distortion dataset. This new perceptual resource, which we call the LIVE-Meta
VI-UGC Database, contains $40$K real-world distorted VI-UGC images and $40$K
patches, on which we recorded $2.7$M human perceptual quality judgments and
$2.7$M distortion labels. Using this psychometric resource we also created an
automatic blind picture quality and distortion predictor that learns
local-to-global spatial quality relationships, achieving state-of-the-art
prediction performance on VI-UGC pictures, significantly outperforming existing
picture quality models on this unique class of distorted picture data. We also
created a prototype feedback system that helps to guide users to mitigate
quality issues and take better quality pictures, by creating a multi-task
learning framework.
- Abstract(参考訳): 知覚に基づく画像分析技術は、視覚障害者が自動ガイダンスを提供することで、より高品質な写真を撮るのに役立つ。
視覚障害者が撮影した写真は、技術的品質(歪曲)と、フレーミングや美的構成といった意味的な品質の2つの品質問題の1つまたは両方に悩まされることが多い。
ここでは,ぼやけや露出不良,ノイズなど,一般的な技術的歪みの発生を最小限に抑えるためのツールを開発した。
我々は、セマンティック品質の相補的な問題に対処せず、その側面を将来の作業に残します。
視覚障害者が捉えた画像の技術的品質に対する実用的なフィードバックを評価・提供することの問題は、しばしば発生する重篤な歪みのため、十分に困難である。
視覚障がい者生成コンテンツ(vi-ugc)の技術的品質の分析と測定の課題を前進させるために,我々は,非常に大きくユニークな主観的画質と歪みデータセットを構築した。
LIVE-Meta VI-UGC Databaseと呼ばれるこの新しい知覚リソースには、実世界の歪んだVI-UGCイメージ40ドルと40ドルのパッチが含まれており、人間による知覚品質判断と27ドルの歪みラベルが記録されている。
この心理測定資源を用いて,局所的空間的品質関係を学習し,vi-ugc画像における最先端の予測性能を達成し,このユニークな歪画像データを用いた既存の画像品質モデルを著しく上回る,盲目画像品質および歪み予測器を開発した。
また,マルチタスク学習フレームワークを作成することで,ユーザによる品質問題軽減と品質画像の取得を支援するプロトタイプフィードバックシステムを開発した。
関連論文リスト
- Dual-Representation Interaction Driven Image Quality Assessment with Restoration Assistance [11.983231834400698]
歪み画像の非参照画像品質評価は、画像内容のばらつきと歪みの多様性のために常に難しい問題である。
以前のIQAモデルは、主に、品質スコア予測のための品質認識表現を得るために、合成画像の明示的な単一品質特徴を符号化していた。
低画質画像の劣化・品質情報を別々にモデル化するDRI法を提案する。
論文 参考訳(メタデータ) (2024-11-26T12:48:47Z) - Q-Ground: Image Quality Grounding with Large Multi-modality Models [61.72022069880346]
Q-Groundは、大規模な視覚的品質グラウンドに取り組むための最初のフレームワークである。
Q-Groundは、大規模なマルチモダリティモデルと詳細な視覚的品質分析を組み合わせる。
コントリビューションの中心は、QGround-100Kデータセットの導入です。
論文 参考訳(メタデータ) (2024-07-24T06:42:46Z) - DSL-FIQA: Assessing Facial Image Quality via Dual-Set Degradation Learning and Landmark-Guided Transformer [23.70791030264281]
Generic Face Image Quality Assessment (GFIQA) は、顔画像の知覚的品質を評価する。
本稿では,GFIQAのトランスフォーマーに基づく新しい手法を提案する。
論文 参考訳(メタデータ) (2024-06-13T23:11:25Z) - Dual-Branch Network for Portrait Image Quality Assessment [76.27716058987251]
ポートレート画像品質評価のためのデュアルブランチネットワーク(PIQA)を提案する。
我々は2つのバックボーンネットワーク(textiti.e., Swin Transformer-B)を使用して、肖像画全体と顔画像から高品質な特徴を抽出する。
我々は、画像シーンの分類と品質評価モデルであるLIQEを利用して、品質認識とシーン固有の特徴を補助的特徴として捉えている。
論文 参考訳(メタデータ) (2024-05-14T12:43:43Z) - Quality-aware Pre-trained Models for Blind Image Quality Assessment [15.566552014530938]
ブラインド画像品質評価(BIQA)は,画像の知覚品質を自動的に評価することを目的としている。
本稿では,BIQA用にカスタマイズされたプレテキストタスクを用いて,自己教師型学習方式でこの問題を解決することを提案する。
論文 参考訳(メタデータ) (2023-03-01T13:52:40Z) - MSTRIQ: No Reference Image Quality Assessment Based on Swin Transformer
with Multi-Stage Fusion [8.338999282303755]
本稿では,Swin Transformerに基づく新しいアルゴリズムを提案する。
ローカル機能とグローバル機能の両方から情報を集約して、品質をより正確に予測する。
NTIRE 2022 Perceptual Image Quality Assessment Challengeのノーレファレンストラックで2位。
論文 参考訳(メタデータ) (2022-05-20T11:34:35Z) - Conformer and Blind Noisy Students for Improved Image Quality Assessment [80.57006406834466]
知覚品質評価(IQA)のための学習ベースアプローチは、通常、知覚品質を正確に測定するために歪んだ画像と参照画像の両方を必要とする。
本研究では,変換器を用いた全参照IQAモデルの性能について検討する。
また,全教師モデルから盲人学生モデルへの半教師付き知識蒸留に基づくIQAの手法を提案する。
論文 参考訳(メタデータ) (2022-04-27T10:21:08Z) - Image Quality Assessment using Contrastive Learning [50.265638572116984]
我々は、補助的な問題を解決するために、対照的な対の目的を用いて深層畳み込みニューラルネットワーク(CNN)を訓練する。
本研究では,最新のNR画像品質モデルと比較して,ContriQUEが競争性能を向上することを示す。
以上の結果から,大きなラベル付き主観的画像品質データセットを必要とせずに,知覚的関連性を持つ強力な品質表現が得られることが示唆された。
論文 参考訳(メタデータ) (2021-10-25T21:01:00Z) - Towards Unsupervised Deep Image Enhancement with Generative Adversarial
Network [92.01145655155374]
監視されていない画像強調生成ネットワーク(UEGAN)を提案する。
教師なしの方法で所望の特性を持つ画像の集合から、対応する画像と画像のマッピングを学習する。
その結果,提案モデルは画像の美的品質を効果的に向上することがわかった。
論文 参考訳(メタデータ) (2020-12-30T03:22:46Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。