論文の概要: A Hypothesis for the Aesthetic Appreciation in Neural Networks
- arxiv url: http://arxiv.org/abs/2108.02646v1
- Date: Sat, 31 Jul 2021 06:19:00 GMT
- ステータス: 処理完了
- システム内更新日: 2021-08-08 11:08:27.463830
- Title: A Hypothesis for the Aesthetic Appreciation in Neural Networks
- Title(参考訳): ニューラルネットワークにおける審美的評価の仮説
- Authors: Xu Cheng, Xin Wang, Haotian Xue, Zhengyang Liang, Quanshi Zhang
- Abstract要約: 本稿では,ニューラルネットワークが有能な概念を強化し,感覚的概念を捨てる,という美的評価の仮説を提案する。
実験では,修正された画像は原画像よりもある程度美的であることが判明した。
- 参考スコア(独自算出の注目度): 17.58003267114874
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This paper proposes a hypothesis for the aesthetic appreciation that
aesthetic images make a neural network strengthen salient concepts and discard
inessential concepts. In order to verify this hypothesis, we use multi-variate
interactions to represent salient concepts and inessential concepts contained
in images. Furthermore, we design a set of operations to revise images towards
more beautiful ones. In experiments, we find that the revised images are more
aesthetic than the original ones to some extent.
- Abstract(参考訳): 本稿では,ニューラルネットワークが有能な概念を強化し,感覚的概念を捨てる,という美的評価の仮説を提案する。
この仮説を検証するために、画像に含まれる健全な概念と感覚的な概念を表現するために多変量相互作用を用いる。
さらに,画像をより美しいものに修正するための一連の操作を設計する。
実験では,修正された画像は原画像よりもある程度美的であることが判明した。
関連論文リスト
- Visual Concept-driven Image Generation with Text-to-Image Diffusion Model [65.96212844602866]
テキスト・ツー・イメージ(TTI)モデルは複雑なシーンの高解像度画像を生成するという印象的な結果を示した。
近年のアプローチでは、これらの手法をパーソナライズ技術で拡張し、ユーザ認証の概念の統合を可能にしている。
しかし、人間の被写体のような複数の相互作用する概念を持つ画像を生成する能力は、1つにまたがったり、複数にまたがったりする概念は、いまだに説明がつかないままである。
これらの課題に対処する概念駆動型TTIパーソナライズフレームワークを提案する。
論文 参考訳(メタデータ) (2024-02-18T07:28:37Z) - Impressions: Understanding Visual Semiotics and Aesthetic Impact [66.40617566253404]
画像のセミオティックスを調べるための新しいデータセットであるImpressionsを提示する。
既存のマルチモーダル画像キャプションと条件付き生成モデルは、画像に対する可視的応答をシミュレートするのに苦労していることを示す。
このデータセットは、微調整と少数ショット適応により、画像の印象や美的評価をモデル化する能力を大幅に改善する。
論文 参考訳(メタデータ) (2023-10-27T04:30:18Z) - Concept Bottleneck with Visual Concept Filtering for Explainable Medical
Image Classification [16.849592713393896]
概念ボトルネックモデル(CBM)は、人間の理解可能な概念を中間目標として利用することにより、解釈可能な画像分類を可能にする。
視覚的アクティベーションスコアは,視覚的手がかりを含むか否かを測定する。
計算された視覚的アクティベーションスコアは、見えない概念をフィルタリングするために使用され、結果として視覚的に意味のある概念がセットされる。
論文 参考訳(メタデータ) (2023-08-23T05:04:01Z) - Multi-task convolutional neural network for image aesthetic assessment [0.0]
美的属性を考慮したマルチタスク畳み込みニューラルネットワークを提案する。
提案したニューラルネットワークは、画像の全体的な美的スコアとともに属性を共同で学習する。
我々は,スピアマンのランク相関を考慮に入れた場合,全身の美的スコアからほぼ人間に近いパフォーマンスを得る。
論文 参考訳(メタデータ) (2023-05-16T11:56:02Z) - A domain adaptive deep learning solution for scanpath prediction of
paintings [66.46953851227454]
本稿では,ある絵画の視覚的体験における視聴者の眼球運動分析に焦点を当てた。
我々は、人間の視覚的注意を予測するための新しいアプローチを導入し、人間の認知機能に影響を及ぼす。
提案した新しいアーキテクチャは、画像を取り込んでスキャンパスを返す。
論文 参考訳(メタデータ) (2022-09-22T22:27:08Z) - Modeling, Quantifying, and Predicting Subjectivity of Image Aesthetics [21.46956783120668]
本稿では,主観的美的嗜好をモデル化し,その主観的論理に基づいて定量化できる統一確率的枠組みを提案する。
この枠組みでは、評価分布をベータ分布としてモデル化し、確実に喜ぶ可能性、確実に不幸であり、不確実である可能性を得ることができる。
本稿では,画像美学の予測のための深層ニューラルネットワークの学習手法を提案する。
論文 参考訳(メタデータ) (2022-08-20T12:16:45Z) - FALCON: Fast Visual Concept Learning by Integrating Images, Linguistic
descriptions, and Conceptual Relations [99.54048050189971]
自然に発生する複数のデータストリームによってガイドされる新しい視覚概念を素早く学習するフレームワークを提案する。
学習された概念は、未知の画像について推論することで質問に答えるなど、下流のアプリケーションをサポートする。
合成と実世界の両方のデータセットにおけるモデルの有効性を実証する。
論文 参考訳(メタデータ) (2022-03-30T19:45:00Z) - Human-Centered Concept Explanations for Neural Networks [47.71169918421306]
概念活性化ベクトル(Concept Activation Vectors, CAV)のクラスを含む概念的説明を紹介する。
次に、自動的に概念を抽出するアプローチと、それらの注意事項に対処するアプローチについて議論する。
最後に、このような概念に基づく説明が、合成設定や実世界の応用において有用であることを示すケーススタディについて論じる。
論文 参考訳(メタデータ) (2022-02-25T01:27:31Z) - Composition and Style Attributes Guided Image Aesthetic Assessment [66.60253358722538]
本稿では,画像の美学を自動予測する手法を提案する。
提案ネットワークには,意味的特徴抽出のための事前学習ネットワーク(Backbone)と,画像属性の予測にBackbone機能に依存するマルチレイヤパーセプトロン(MLP)ネットワーク(AttributeNet)が含まれる。
画像が与えられた場合、提案するマルチネットワークは、スタイルと構成属性、および美的スコア分布を予測できる。
論文 参考訳(メタデータ) (2021-11-08T17:16:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。