論文の概要: Helping Visually Impaired People Take Better Quality Pictures
- arxiv url: http://arxiv.org/abs/2305.08066v1
- Date: Sun, 14 May 2023 04:37:53 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-16 17:53:24.597863
- Title: Helping Visually Impaired People Take Better Quality Pictures
- Title(参考訳): 視覚障害者の画質向上を助ける
- Authors: Maniratnam Mandal, Deepti Ghadiyaram, Danna Gurari, and Alan C. Bovik
- Abstract要約: 我々は、視覚障害者が共通の技術的歪みの発生を最小限に抑えるためのツールを開発する。
また、ユーザによる品質問題の緩和を支援する、プロトタイプのフィードバックシステムも作成しています。
- 参考スコア(独自算出の注目度): 52.03016269364854
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Perception-based image analysis technologies can be used to help visually
impaired people take better quality pictures by providing automated guidance,
thereby empowering them to interact more confidently on social media. The
photographs taken by visually impaired users often suffer from one or both of
two kinds of quality issues: technical quality (distortions), and semantic
quality, such as framing and aesthetic composition. Here we develop tools to
help them minimize occurrences of common technical distortions, such as blur,
poor exposure, and noise. We do not address the complementary problems of
semantic quality, leaving that aspect for future work. The problem of assessing
and providing actionable feedback on the technical quality of pictures captured
by visually impaired users is hard enough, owing to the severe, commingled
distortions that often occur. To advance progress on the problem of analyzing
and measuring the technical quality of visually impaired user-generated content
(VI-UGC), we built a very large and unique subjective image quality and
distortion dataset. This new perceptual resource, which we call the LIVE-Meta
VI-UGC Database, contains $40$K real-world distorted VI-UGC images and $40$K
patches, on which we recorded $2.7$M human perceptual quality judgments and
$2.7$M distortion labels. Using this psychometric resource we also created an
automatic blind picture quality and distortion predictor that learns
local-to-global spatial quality relationships, achieving state-of-the-art
prediction performance on VI-UGC pictures, significantly outperforming existing
picture quality models on this unique class of distorted picture data. We also
created a prototype feedback system that helps to guide users to mitigate
quality issues and take better quality pictures, by creating a multi-task
learning framework.
- Abstract(参考訳): 知覚に基づく画像分析技術は、視覚障害者が自動ガイダンスを提供することで、より高品質な写真を撮るのに役立つ。
視覚障害者が撮影した写真は、技術的品質(歪曲)と、フレーミングや美的構成といった意味的な品質の2つの品質問題の1つまたは両方に悩まされることが多い。
ここでは,ぼやけや露出不良,ノイズなど,一般的な技術的歪みの発生を最小限に抑えるためのツールを開発した。
我々は、セマンティック品質の相補的な問題に対処せず、その側面を将来の作業に残します。
視覚障害者が捉えた画像の技術的品質に対する実用的なフィードバックを評価・提供することの問題は、しばしば発生する重篤な歪みのため、十分に困難である。
視覚障がい者生成コンテンツ(vi-ugc)の技術的品質の分析と測定の課題を前進させるために,我々は,非常に大きくユニークな主観的画質と歪みデータセットを構築した。
LIVE-Meta VI-UGC Databaseと呼ばれるこの新しい知覚リソースには、実世界の歪んだVI-UGCイメージ40ドルと40ドルのパッチが含まれており、人間による知覚品質判断と27ドルの歪みラベルが記録されている。
この心理測定資源を用いて,局所的空間的品質関係を学習し,vi-ugc画像における最先端の予測性能を達成し,このユニークな歪画像データを用いた既存の画像品質モデルを著しく上回る,盲目画像品質および歪み予測器を開発した。
また,マルチタスク学習フレームワークを作成することで,ユーザによる品質問題軽減と品質画像の取得を支援するプロトタイプフィードバックシステムを開発した。
関連論文リスト
- Blind Image Quality Assessment via Transformer Predicted Error Map and
Perceptual Quality Token [19.67014524146261]
近年,非参照画像品質評価(NR-IQA)が注目されている。
予測された客観的誤差マップと知覚的品質トークンを用いたTransformerベースのNR-IQAモデルを提案する。
提案手法は, 実画像データベースと合成画像データベースの両方において, 現在の最先端技術よりも優れている。
論文 参考訳(メタデータ) (2023-05-16T11:17:54Z) - Quality-aware Pre-trained Models for Blind Image Quality Assessment [15.566552014530938]
ブラインド画像品質評価(BIQA)は,画像の知覚品質を自動的に評価することを目的としている。
本稿では,BIQA用にカスタマイズされたプレテキストタスクを用いて,自己教師型学習方式でこの問題を解決することを提案する。
論文 参考訳(メタデータ) (2023-03-01T13:52:40Z) - Controllable Image Enhancement [66.18525728881711]
いくつかのパラメータを制御して、複数のスタイルで高品質な画像を生成できる半自動画像強調アルゴリズムを提案する。
エンコーダ・デコーダフレームワークは、リタッチスキルを潜在コードにエンコードし、イメージ信号処理機能のパラメータにデコードする。
論文 参考訳(メタデータ) (2022-06-16T23:54:53Z) - MSTRIQ: No Reference Image Quality Assessment Based on Swin Transformer
with Multi-Stage Fusion [8.338999282303755]
本稿では,Swin Transformerに基づく新しいアルゴリズムを提案する。
ローカル機能とグローバル機能の両方から情報を集約して、品質をより正確に予測する。
NTIRE 2022 Perceptual Image Quality Assessment Challengeのノーレファレンストラックで2位。
論文 参考訳(メタデータ) (2022-05-20T11:34:35Z) - Conformer and Blind Noisy Students for Improved Image Quality Assessment [80.57006406834466]
知覚品質評価(IQA)のための学習ベースアプローチは、通常、知覚品質を正確に測定するために歪んだ画像と参照画像の両方を必要とする。
本研究では,変換器を用いた全参照IQAモデルの性能について検討する。
また,全教師モデルから盲人学生モデルへの半教師付き知識蒸留に基づくIQAの手法を提案する。
論文 参考訳(メタデータ) (2022-04-27T10:21:08Z) - Image Quality Assessment using Contrastive Learning [50.265638572116984]
我々は、補助的な問題を解決するために、対照的な対の目的を用いて深層畳み込みニューラルネットワーク(CNN)を訓練する。
本研究では,最新のNR画像品質モデルと比較して,ContriQUEが競争性能を向上することを示す。
以上の結果から,大きなラベル付き主観的画像品質データセットを必要とせずに,知覚的関連性を持つ強力な品質表現が得られることが示唆された。
論文 参考訳(メタデータ) (2021-10-25T21:01:00Z) - Towards Unsupervised Deep Image Enhancement with Generative Adversarial
Network [92.01145655155374]
監視されていない画像強調生成ネットワーク(UEGAN)を提案する。
教師なしの方法で所望の特性を持つ画像の集合から、対応する画像と画像のマッピングを学習する。
その結果,提案モデルは画像の美的品質を効果的に向上することがわかった。
論文 参考訳(メタデータ) (2020-12-30T03:22:46Z) - Uncertainty-Aware Blind Image Quality Assessment in the Laboratory and
Wild [98.48284827503409]
我々は,テキスト化BIQAモデルを開発し,それを合成的および現実的歪みの両方で訓練するアプローチを提案する。
我々は、多数の画像ペアに対してBIQAのためのディープニューラルネットワークを最適化するために、忠実度損失を用いる。
6つのIQAデータベースの実験は、実験室と野生動物における画像品質を盲目的に評価する学習手法の可能性を示唆している。
論文 参考訳(メタデータ) (2020-05-28T13:35:23Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。