論文の概要: How Deep is Your Art: An Experimental Study on the Limits of Artistic
Understanding in a Single-Task, Single-Modality Neural Network
- arxiv url: http://arxiv.org/abs/2203.16031v3
- Date: Thu, 18 Jan 2024 19:59:42 GMT
- ステータス: 処理完了
- システム内更新日: 2024-01-22 19:53:06.795148
- Title: How Deep is Your Art: An Experimental Study on the Limits of Artistic
Understanding in a Single-Task, Single-Modality Neural Network
- Title(参考訳): 芸術の深み:シングルタスク・シングルモーダルニューラルネットワークにおける芸術的理解の限界に関する実験的研究
- Authors: Mahan Agha Zahedi, Niloofar Gholamrezaei, Alex Doboli
- Abstract要約: 本稿では,最先端のDeep Convolutional Neural Network(DCNN)が,現代美術作品とアートキュレーターが考案したギャラリーを正確に区別できる程度を実験的に検討した。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Computational modeling of artwork meaning is complex and difficult. This is
because art interpretation is multidimensional and highly subjective. This
paper experimentally investigated the degree to which a state-of-the-art Deep
Convolutional Neural Network (DCNN), a popular Machine Learning approach, can
correctly distinguish modern conceptual art work into the galleries devised by
art curators. Two hypotheses were proposed to state that the DCNN model uses
Exhibited Properties for classification, like shape and color, but not
Non-Exhibited Properties, such as historical context and artist intention. The
two hypotheses were experimentally validated using a methodology designed for
this purpose. VGG-11 DCNN pre-trained on ImageNet dataset and discriminatively
fine-tuned was trained on handcrafted datasets designed from real-world
conceptual photography galleries. Experimental results supported the two
hypotheses showing that the DCNN model ignores Non-Exhibited Properties and
uses only Exhibited Properties for artwork classification. This work points to
current DCNN limitations, which should be addressed by future DNN models.
- Abstract(参考訳): アートワークの意味の計算モデリングは複雑で難しい。
これは、芸術解釈が多次元であり、非常に主観的であるからである。
本稿では,現在最先端のDeep Convolutional Neural Network (DCNN) が,最新の概念的アートワークを,アートキュレーターが考案したギャラリーに正確に識別できる程度を実験的に検討した。
2つの仮説が提案され、DCNNモデルは、形や色などの分類にExhibited Propertiesを使用しているが、歴史的文脈やアーティストの意図のような非Exhibited Propertiesは使用していない。
2つの仮説は、この目的のために設計された方法論を用いて実験的に検証された。
VGG-11 DCNNはImageNetデータセットで事前訓練され、実世界のコンセプト写真ギャラリーから設計された手作りのデータセットで識別的に微調整された。
実験結果は,DCNNモデルが非展示性を無視していることを示す2つの仮説を支持した。
この作業は、将来のDNNモデルで対処すべきDCNNの現在の制限を示している。
関連論文リスト
- Feature CAM: Interpretable AI in Image Classification [2.4409988934338767]
セキュリティ、金融、健康、製造業など、重要かつ高精度な分野で人工知能を使用するという信頼の欠如がある。
本稿では,摂動・活性化の組み合わせに該当する特徴CAM(Feature CAM)を提案する。
その結果, ABMの3~4倍の精度が得られた。
論文 参考訳(メタデータ) (2024-03-08T20:16:00Z) - Harnessing Diffusion Models for Visual Perception with Meta Prompts [68.78938846041767]
本稿では,視覚知覚タスクの拡散モデルを用いた簡易かつ効果的な手法を提案する。
学習可能な埋め込み(メタプロンプト)を事前学習した拡散モデルに導入し、知覚の適切な特徴を抽出する。
提案手法は,NYU 深度 V2 と KITTI の深度推定タスク,および CityScapes のセマンティックセグメンテーションタスクにおいて,新しい性能記録を実現する。
論文 参考訳(メタデータ) (2023-12-22T14:40:55Z) - InDL: A New Dataset and Benchmark for In-Diagram Logic Interpretation
based on Visual Illusion [1.7980584146314789]
本稿では,深層学習モデルの論理解釈能力を評価するための新しい手法を提案する。
これらのモデルを厳格にテストし、ベンチマークするために設計された、ユニークなデータセットであるInDLを構築します。
我々は、6つの古典的な幾何学的錯視を利用して、人間と機械の視覚知覚の比較フレームワークを構築した。
論文 参考訳(メタデータ) (2023-05-28T13:01:32Z) - Learning to Evaluate the Artness of AI-generated Images [64.48229009396186]
アートスコア(ArtScore)は、アーティストによる本物のアートワークと画像がどの程度似ているかを評価するために設計されたメトリクスである。
我々は、写真とアートワークの生成のために事前訓練されたモデルを採用し、一連の混合モデルを生み出した。
このデータセットはニューラルネットワークのトレーニングに使用され、任意の画像の定量化精度レベルを推定する方法を学ぶ。
論文 参考訳(メタデータ) (2023-05-08T17:58:27Z) - Comparison Analysis of Traditional Machine Learning and Deep Learning
Techniques for Data and Image Classification [62.997667081978825]
本研究の目的は、コンピュータビジョン2次元オブジェクト分類タスクに使用される最も一般的な機械学習およびディープラーニング技術を分析し比較することである。
まず、視覚語モデルと深部畳み込みニューラルネットワーク(DCNN)の理論的背景を示す。
次に、Bag of Visual Wordsモデル、VGG16 CNN Architectureを実装します。
論文 参考訳(メタデータ) (2022-04-11T11:34:43Z) - Self-Denoising Neural Networks for Few Shot Learning [66.38505903102373]
既存のニューラルアーキテクチャの複数の段階でノイズを追加すると同時に、この付加ノイズに対して堅牢であるように学習する新しいトレーニングスキームを提案する。
このアーキテクチャは、SDNN(Self-Denoising Neural Network)と呼ばれ、現代の畳み込みニューラルネットワークに容易に適用できます。
論文 参考訳(メタデータ) (2021-10-26T03:28:36Z) - What if This Modified That? Syntactic Interventions via Counterfactual
Embeddings [19.3614797257652]
先行技術は、プローブを通してモデル表現内の有意義な特性を明らかにすることを目的としているが、そのようなプローブがモデルが実際に使っている情報をどのように忠実に表現しているかは明らかではない。
本稿では,因果解析にインスパイアされた手法を提案する。
本手法の実験では,下流予測タスクにおいて,BERTをベースとしたモデルでは木間距離のような構文表現が用いられていることを示す。
論文 参考訳(メタデータ) (2021-05-28T17:27:04Z) - Graph Neural Networks for Knowledge Enhanced Visual Representation of
Paintings [14.89186519385364]
ArtSAGENetは、グラフニューラルネットワーク(GNN)と畳み込みニューラルネットワーク(CNN)を統合する新しいアーキテクチャである。
提案したArtSAGENetは,アーティストとアートワーク間の重要な依存関係をキャプチャし,エンコードする。
本研究は美術品の分析とキュレーションにビジュアルコンテンツとセマンティクスを統合する大きな可能性を秘めている。
論文 参考訳(メタデータ) (2021-05-17T23:05:36Z) - A Deep Drift-Diffusion Model for Image Aesthetic Score Distribution
Prediction [68.76594695163386]
画像から美的スコアの分布を予測するために,心理学者から着想を得たディープドリフト拡散モデルを提案する。
DDDモデルは、評価結果の伝統的なモデリングではなく、美的知覚の心理的プロセスを記述することができる。
私たちの新しいDDDモデルはシンプルだが効率的であり、美的スコア分布予測における最先端の手法よりも優れています。
論文 参考訳(メタデータ) (2020-10-15T11:01:46Z) - Architecture Disentanglement for Deep Neural Networks [174.16176919145377]
ディープニューラルネットワーク(DNN)の内部動作を説明するために,ニューラルアーキテクチャ・ディコンタングルメント(NAD)を導入する。
NADは、訓練済みのDNNを独立したタスクに従ってサブアーキテクチャに切り離すことを学び、推論プロセスを記述する情報フローを形成する。
その結果、誤分類された画像は、タスクサブアーキテクチャーに正しいサブアーキテクチャーに割り当てられる確率が高いことが示された。
論文 参考訳(メタデータ) (2020-03-30T08:34:33Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。