論文の概要: Personalizing image enhancement for critical visual tasks: improved
legibility of papyri using color processing and visual illusions
- arxiv url: http://arxiv.org/abs/2104.01106v2
- Date: Mon, 30 Aug 2021 21:28:00 GMT
- ステータス: 処理完了
- システム内更新日: 2023-04-08 10:47:00.460412
- Title: Personalizing image enhancement for critical visual tasks: improved
legibility of papyri using color processing and visual illusions
- Title(参考訳): 重要な視覚課題に対するパーソナライズ・イメージエンハンスメント:カラー処理と視覚錯覚を用いたパピルの適性向上
- Authors: Vlad Atanasiu, Isabelle Marthot-Santaniello
- Abstract要約: 方法: ユーザ体験実験において, 色処理と視覚錯覚に基づく新しい拡張アルゴリズムを古典的手法と比較する。
ユーザは、パーソナリティや社会的条件、タスクとアプリケーションドメイン、専門レベルと画質、ソフトウェア、ハードウェア、インターフェースの余裕などの影響を受けながら、幅広い行動スペクトルを示しました。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Purpose: This article develops theoretical, algorithmic, perceptual, and
interaction aspects of script legibility enhancement in the visible light
spectrum for the purpose of scholarly editing of papyri texts. - Methods: Novel
legibility enhancement algorithms based on color processing and visual
illusions are compared to classic methods in a user experience experiment. -
Results: (1) The proposed methods outperformed the comparison methods. (2)
Users exhibited a broad behavioral spectrum, under the influence of factors
such as personality and social conditioning, tasks and application domains,
expertise level and image quality, and affordances of software, hardware, and
interfaces. No single enhancement method satisfied all factor configurations.
Therefore, it is suggested to offer users a broad choice of methods to
facilitate personalization, contextualization, and complementarity. (3) A
distinction is made between casual and critical vision on the basis of signal
ambiguity and error consequences. The criteria of a paradigm for enhancing
images for critical applications comprise: interpreting images skeptically;
approaching enhancement as a system problem; considering all image structures
as potential information; and making uncertainty and alternative
interpretations explicit, both visually and numerically.
- Abstract(参考訳): 目的:本稿は,パピリテキストの学術的な編集を目的として,可視光スペクトルにおけるスクリプトの正当性向上の理論的,アルゴリズム的,知覚的,相互作用的側面を展開する。
方法:色処理と視覚錯覚に基づく新しい可視性向上アルゴリズムを,ユーザ体験実験における古典的手法と比較した。
2)ユーザはパーソナリティやソーシャルコンディショニング,タスクとアプリケーションドメイン,専門知識レベルと画像品質,ソフトウェアやハードウェア,インターフェースの余裕といった要因の影響を受けて,幅広い行動スペクトルを示した。
すべての因子構成を満たす単一の拡張法はない。
したがって、パーソナライゼーション、文脈化、相補性を容易にする方法の幅広い選択をユーザに提供することが提案されている。
(3)信号の曖昧さとエラー結果に基づいて,カジュアルビジョンと臨界ビジョンの区別を行う。
クリティカルアプリケーションのための画像強調パラダイムの基準は、画像の懐疑的解釈、システム問題としてのエンハンスメントへのアプローチ、すべての画像構造を潜在的な情報として考慮すること、不確実性や代替的な解釈を視覚的にも数値的にも明確化することである。
関連論文リスト
- A Psychological Study: Importance of Contrast and Luminance in Color to
Grayscale Mapping [2.1481347363838017]
グレースケール画像は画像処理とコンピュータビジョンタスクに不可欠である。
異なる脱色アルゴリズムを評価・比較するために,心理学実験を設計した。
我々は、知覚に基づく単純な色空間変換アルゴリズムと、(ii)空間コントラストに基づくアルゴリズムの2種類のアルゴリズムの比較を行った。
論文 参考訳(メタデータ) (2024-02-07T04:51:14Z) - Cones 2: Customizable Image Synthesis with Multiple Subjects [50.54010141032032]
本研究では,特定の対象を効率的に表現する方法と,異なる対象を適切に構成する方法について検討する。
クロスアテンションマップ内のアクティベーションを修正することにより、レイアウトはイメージ内の異なる被写体の位置を指定して分離する。
論文 参考訳(メタデータ) (2023-05-30T18:00:06Z) - Edge-Aware Image Color Appearance and Difference Modeling [0.0]
人間は鮮やかな色の感覚を発達させ、外観の微妙な違いを検出することができる。
エッジ認識方式でコントラスト感度関数と局所適応規則を適用することにより、画像差分予測が改善される。
論文 参考訳(メタデータ) (2023-04-20T22:55:16Z) - Holistic Visual-Textual Sentiment Analysis with Prior Models [64.48229009396186]
本稿では,頑健な視覚・テキスト感情分析を実現するための総合的手法を提案する。
提案手法は,(1)感情分析のためのデータから特徴を直接学習する視覚テキストブランチ,(2)選択された意味的特徴を抽出する事前学習された「専門家」エンコーダを備えた視覚専門家ブランチ,(3)暗黙的に視覚テキスト対応をモデル化するCLIPブランチ,(4)多モード特徴を融合して感情予測を行うBERTに基づくマルチモーダル特徴融合ネットワークの4つの部分から構成される。
論文 参考訳(メタデータ) (2022-11-23T14:40:51Z) - Exploring CLIP for Assessing the Look and Feel of Images [87.97623543523858]
ゼロショット方式で画像の品質知覚(ルック)と抽象知覚(フィール)の両方を評価するために,コントラスト言語-画像事前学習(CLIP)モデルを導入する。
以上の結果から,CLIPは知覚的評価によく適合する有意義な先行情報を捉えることが示唆された。
論文 参考訳(メタデータ) (2022-07-25T17:58:16Z) - Visual Perturbation-aware Collaborative Learning for Overcoming the
Language Prior Problem [60.0878532426877]
本稿では,視覚的摂動校正の観点から,新しい協調学習手法を提案する。
具体的には、異なる摂動範囲で2種類のキュレートされた画像を構築するための視覚コントローラを考案する。
2つの診断VQA-CPベンチマークデータセットの実験結果は、その効果を明らかに示している。
論文 参考訳(メタデータ) (2022-07-24T23:50:52Z) - Image-Based Benchmarking and Visualization for Large-Scale Global
Optimization [6.5447678518952115]
大規模なグローバル最適化問題の解決策を可視化する画像ベース可視化フレームワークが提案されている。
提案するフレームワークでは,画像全体が全体の解の質を表すのに対して,画素は決定変数を視覚化する。
提案したフレームワークは、既知のオプティマによる任意のベンチマーク問題で実証される。
論文 参考訳(メタデータ) (2020-07-24T03:39:23Z) - A Novel Attention-based Aggregation Function to Combine Vision and
Language [55.7633883960205]
本稿では,視覚と言語のための新しい完全適応型還元法を提案する。
具体的には,各モータリティの各要素のスコアの集合を,クロスアテンションの新たな変種を用いて計算する。
我々は、画像テキストマッチングと視覚的質問応答のアプローチを試行し、他の縮小選択と公正な比較を構築した。
論文 参考訳(メタデータ) (2020-04-27T18:09:46Z) - Image-to-Image Translation with Text Guidance [139.41321867508722]
本研究の目的は,制御可能な因子,すなわち自然言語記述を生成的敵ネットワークを用いた画像から画像への変換に組み込むことである。
提案する4つのキーコンポーネントは,(1)非意味的単語をフィルタリングする部分音声タグの実装,(2) 異なるモダリティテキストと画像特徴を効果的に融合するアフィン結合モジュールの採用,(3) 識別器の差分能力と生成器の整形能力を高めるための改良された多段階アーキテクチャである。
論文 参考訳(メタデータ) (2020-02-12T21:09:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。