論文の概要: A toolbox for calculating objective image properties in aesthetics research
- arxiv url: http://arxiv.org/abs/2408.10616v1
- Date: Tue, 20 Aug 2024 07:49:43 GMT
- ステータス: 処理完了
- システム内更新日: 2024-08-21 14:44:20.006748
- Title: A toolbox for calculating objective image properties in aesthetics research
- Title(参考訳): 美学研究における客観的画像特性の計算ツールボックス
- Authors: Christoph Redies, Ralf Bartho, Lisa Koßmann, Branka Spehar, Ronald Hübner, Johan Wagemans, Gregor U. Hayn-Leichsenring,
- Abstract要約: 「美学ツールボックス」では、現代研究でよく見られる量的画像特性の集合を正確に計算することができる。
性質としては、光度と色統計、フーリエスペクトル特性、フラクタル性、自己相似性、対称性、異なるエントロピー測度とCNNに基づく分散がある。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Over the past two decades, researchers in the field of visual aesthetics have studied numerous quantitative (objective) image properties and how they relate to visual aesthetic appreciation. However, results are difficult to compare between research groups. One reason is that researchers use different sets of image properties in their studies. But even if the same properties are used, the image pre-processing techniques may differ and often researchers use their own customized scripts to calculate the image properties. To provide greater accessibility and comparability of research results in visual experimental aesthetics, we developed an open-access and easy-to-use toolbox (called the 'Aesthetics Toolbox'). The Toolbox allows users to calculate a well-defined set of quantitative image properties popular in contemporary research. The properties include lightness and color statistics, Fourier spectral properties, fractality, self-similarity, symmetry, as well as different entropy measures and CNN-based variances. Compatible with most devices, the Toolbox provides an intuitive click-and-drop web interface. In the Toolbox, we integrated the original scripts of four different research groups and translated them into Python 3. To ensure that results were consistent across analyses, we took care that results from the Python versions of the scripts were the same as those from the original scripts. The toolbox, detailed documentation, and a link to the cloud version are available via Github: https://github.com/RBartho/Aesthetics-Toolbox. In summary, we developed a toolbox that helps to standardize and simplify the calculation of quantitative image properties for visual aesthetics research.
- Abstract(参考訳): 過去20年間、視覚美学の研究者は、多くの量的(客観的な)イメージ特性と、それらが視覚美的鑑賞との関連性について研究してきた。
しかし,研究グループ間の比較は困難である。
一つの理由は、研究者が研究で異なる画像特性のセットを使用しているからである。
しかし、同じプロパティが使われたとしても、画像前処理技術が異なる場合があり、しばしば研究者は独自のスクリプトを使用して画像特性を計算します。
視覚的審美学における研究結果のアクセシビリティとコンパビリティの向上を目的として,オープンアクセスで使いやすいツールボックス(Aesthetics Toolbox)を開発した。
Toolboxは、現代の研究でよく使われる定量的な画像特性の集合をユーザが正確に計算することを可能にする。
この性質には、光度と色統計、フーリエスペクトル特性、フラクタル性、自己相似性、対称性、異なるエントロピー測度とCNNに基づく分散が含まれる。
ほとんどのデバイスと互換性のあるツールボックスは、直感的なクリック&ドロップのWebインターフェースを提供する。
Toolboxでは、4つの異なる研究グループのオリジナルのスクリプトを統合し、それらをPython 3に翻訳しました。
分析全体で結果が一貫していることを確認するため、Pythonバージョンのスクリプトの結果がオリジナルのスクリプトと同じであるように注意しました。
ツールボックス、詳細なドキュメント、クラウドバージョンへのリンクはGithubで入手できる。
そこで我々は,視覚美学研究のための定量的画像特性の計算の標準化と簡易化を支援するツールボックスを開発した。
関連論文リスト
- Visual Motif Identification: Elaboration of a Curated Comparative Dataset and Classification Methods [4.431754853927668]
映画では、視覚的なモチーフは、芸術的または美的な意味を持つ反復的な図形的構成である。
私たちのゴールは、これらのモチーフを認識して分類することであり、その目的にカスタムデータセットを使用する新しい機械学習モデルを提案することです。
CLIPモデルから抽出した機能を、浅いネットワークと適切な損失を用いて、20の異なるモチーフに分類し、驚くほど良い結果が得られることを示す。
論文 参考訳(メタデータ) (2024-10-21T10:50:00Z) - SeeBel: Seeing is Believing [0.9790236766474201]
本稿では,全画像のセグメンテーションにおけるデータセット統計とAI性能を比較するための3つの可視化手法を提案する。
我々のプロジェクトは、画像の注意重みを可視化することで、セグメンテーションのための訓練されたAIモデルの解釈可能性をさらに高めようとしている。
我々は,コンピュータビジョンとAI領域における可視化ツールの有効性を検討するために,実際のユーザを対象に調査を行うことを提案する。
論文 参考訳(メタデータ) (2023-12-18T05:11:00Z) - Predicting beauty, liking, and aesthetic quality: A comparative analysis
of image databases for visual aesthetics research [0.0]
対象認識のために開発された畳み込みニューラルネットワークの層を, (A) 先行研究された20の統計画像特性の集合を用いて, 連続して評価を予測できるかを検討する。
以上の結果から,各データセットにおける審美評価の予測可能性に有意な変化が認められた。
意外なことに、統計的画像特性と畳み込みニューラルネットワークは、類似した精度で美的評価を予測し、この2つの手法が捉えた画像情報の顕著な重複を浮き彫りにした。
論文 参考訳(メタデータ) (2023-07-03T13:03:17Z) - DisPositioNet: Disentangled Pose and Identity in Semantic Image
Manipulation [83.51882381294357]
DisPositioNetは、シーングラフを用いた画像操作のタスクに対して、各オブジェクトのアンタングル表現を学習するモデルである。
我々のフレームワークは、グラフ内の特徴表現と同様に、変分潜在埋め込みの切り離しを可能にする。
論文 参考訳(メタデータ) (2022-11-10T11:47:37Z) - Exploring CLIP for Assessing the Look and Feel of Images [87.97623543523858]
ゼロショット方式で画像の品質知覚(ルック)と抽象知覚(フィール)の両方を評価するために,コントラスト言語-画像事前学習(CLIP)モデルを導入する。
以上の結果から,CLIPは知覚的評価によく適合する有意義な先行情報を捉えることが示唆された。
論文 参考訳(メタデータ) (2022-07-25T17:58:16Z) - Automatic Image Content Extraction: Operationalizing Machine Learning in
Humanistic Photographic Studies of Large Visual Archives [81.88384269259706]
本稿では,機械学習による大規模画像アーカイブの検索と解析のための自動画像コンテンツ抽出フレームワークを提案する。
提案する枠組みは、人文科学と社会科学のいくつかの分野に適用できる。
論文 参考訳(メタデータ) (2022-04-05T12:19:24Z) - Contrastive Object Detection Using Knowledge Graph Embeddings [72.17159795485915]
一つのホットアプローチで学習したクラス埋め込みの誤差統計と、自然言語処理や知識グラフから意味的に構造化された埋め込みを比較した。
本稿では,キーポイントベースおよびトランスフォーマーベースオブジェクト検出アーキテクチャの知識埋め込み設計を提案する。
論文 参考訳(メタデータ) (2021-12-21T17:10:21Z) - Self-supervised similarity search for large scientific datasets [0.0]
本稿では,大規模未ラベルデータセットの探索と活用に自己教師付き学習を用いることを提案する。
まず、各画像の対称性、不確実性、ノイズに頑健な低次元表現を除去するために、自己教師付きモデルを訓練する。
次に,この表現を用いて対話型セマンティック類似検索ツールを構築し,公開する。
論文 参考訳(メタデータ) (2021-10-25T18:00:00Z) - Integrating Visuospatial, Linguistic and Commonsense Structure into
Story Visualization [81.26077816854449]
まず、構造的入力を符号化するための選挙区解析木の利用について検討する。
第二に、構造化されたインプットをコモンセンス情報で強化し、この外部知識が視覚的ストーリーの生成に与える影響について検討する。
第3に、境界ボックスと高密度キャプションによって視覚構造を組み込んで、生成された画像の文字やオブジェクトに関するフィードバックを提供する。
論文 参考訳(メタデータ) (2021-10-21T00:16:02Z) - Interactive Visual Study of Multiple Attributes Learning Model of X-Ray
Scattering Images [34.95218692917125]
本稿では,X線散乱画像に適用した複数の属性学習モデルを視覚的に研究するための対話型システムを提案する。
この探索は、属性間の相互関係に関連するモデル性能の顕在化によって導かれる。
したがって、このシステムはドメインサイエンティストをサポートし、トレーニングデータセットとモデルを改善し、疑問のある属性ラベルを見つけ、外れやすい画像や素早いデータクラスタを識別する。
論文 参考訳(メタデータ) (2020-09-03T00:38:45Z) - Instance-aware Image Colorization [51.12040118366072]
本稿では,インスタンス認識のカラー化を実現する手法を提案する。
我々のネットワークアーキテクチャは、市販のオブジェクト検出器を利用して、収穫されたオブジェクト画像を取得する。
類似したネットワークを用いて、フルイメージの特徴を抽出し、融合モジュールを適用して最終色を予測する。
論文 参考訳(メタデータ) (2020-05-21T17:59:23Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。