論文の概要: The Algorithmic Gaze: An Audit and Ethnography of the LAION-Aesthetics Predictor Model
- arxiv url: http://arxiv.org/abs/2601.09896v1
- Date: Wed, 14 Jan 2026 21:59:44 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-16 19:43:18.906774
- Title: The Algorithmic Gaze: An Audit and Ethnography of the LAION-Aesthetics Predictor Model
- Title(参考訳): アルゴリズム迷路:LAION-Aesthetics Predictor Modelのオーディットとエスノグラフィー
- Authors: Jordan Taylor, William Agnew, Maarten Sap, Sarah E. Fox, Haiyi Zhu,
- Abstract要約: 視覚的生成画像モデルを学習するためにデータセットのキュレートに広く用いられている美的評価モデル、LAP(LaION Aesthetic Predictor)について検討する。
LAPは女性に言及するキャプションで画像をフィルターし、男性に言及するキャプションやLGBTQ+に言及するキャプションで画像をフィルタリングする。
このようにして、この美的評価モデルのアルゴリズム的な視線は、西洋美術史に見られる帝国的・男性的な視線を補強する。
- 参考スコア(独自算出の注目度): 38.47280177852031
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Visual generative AI models are trained using a one-size-fits-all measure of aesthetic appeal. However, what is deemed "aesthetic" is inextricably linked to personal taste and cultural values, raising the question of whose taste is represented in visual generative AI models. In this work, we study an aesthetic evaluation model--LAION Aesthetic Predictor (LAP)--that is widely used to curate datasets to train visual generative image models, like Stable Diffusion, and evaluate the quality of AI-generated images. To understand what LAP measures, we audited the model across three datasets. First, we examined the impact of aesthetic filtering on the LAION-Aesthetics Dataset (approximately 1.2B images), which was curated from LAION-5B using LAP. We find that the LAP disproportionally filters in images with captions mentioning women, while filtering out images with captions mentioning men or LGBTQ+ people. Then, we used LAP to score approximately 330k images across two art datasets, finding the model rates realistic images of landscapes, cityscapes, and portraits from western and Japanese artists most highly. In doing so, the algorithmic gaze of this aesthetic evaluation model reinforces the imperial and male gazes found within western art history. In order to understand where these biases may have originated, we performed a digital ethnography of public materials related to the creation of LAP. We find that the development of LAP reflects the biases we found in our audits, such as the aesthetic scores used to train LAP primarily coming from English-speaking photographers and western AI-enthusiasts. In response, we discuss how aesthetic evaluation can perpetuate representational harms and call on AI developers to shift away from prescriptive measures of "aesthetics" toward more pluralistic evaluation.
- Abstract(参考訳): 視覚生成型AIモデルは、美的魅力の1段階の尺度を用いて訓練される。
しかし、「美的」とは個人的嗜好や文化的価値観と密接な関係があり、どの味が視覚的生成型AIモデルで表現されるのかという疑問が提起される。
本研究では、安定拡散のような視覚的生成画像モデルを訓練するためにデータセットのキュレーションに広く用いられている美的評価モデル、LAP(LaION Aesthetic Predictor)について検討し、AI生成画像の品質を評価する。
LAPが何を計測しているかを理解するため、3つのデータセットでモデルを監査した。
まず,LAION-5BからLAION-Aesthetics Dataset(約1.2B画像)をLAION-5BからLAION-Aesthetics Dataset(LAION-Aesthetics Dataset)を用いて解析した。
LAPは女性に言及するキャプションで画像を不均等にフィルタリングし、男性に言及するキャプションやLGBTQ+に言及するキャプションで画像をフィルタリングする。
次に,LAPを用いて2つのアートデータセットの約330万枚の画像をスコアし,西洋と日本のアーティストの風景,都市景観,肖像画のリアルな画像のモデルレートを求める。
このようにして、この美的評価モデルのアルゴリズム的な視線は、西洋美術史に見られる帝国的・男性的な視線を補強する。
これらのバイアスがどこから生まれたのかを理解するため、我々は、LAPの作成に関連する公共資料のデジタルエスノグラフィーを行った。
LAPの発達は、私たちが監査で見つけたバイアスを反映しており、例えば、英語の写真家や西欧のAI熱狂者からのLAPのトレーニングに使用される美的スコアなどです。
そこで本研究では,AI開発者に対して,美学の規範的尺度から,より多元的評価に移行するよう呼びかける。
関連論文リスト
- Compose Your Aesthetics: Empowering Text-to-Image Models with the Principles of Art [61.28133495240179]
本稿では,ユーザが特定した美学をT2I生成出力と整合させることを目的とした,美学アライメントの新しい課題を提案する。
アートワークが美学にアプローチするための貴重な視点を提供する方法にインスパイアされた私たちは、構成的枠組みのアーティストが採用する視覚的美学を定式化した。
我々は,T2I DMが,ユーザが特定したPoA条件により10の合成制御を効果的に提供することを実証した。
論文 参考訳(メタデータ) (2025-03-15T06:58:09Z) - Aligning Vision Models with Human Aesthetics in Retrieval: Benchmarks and Algorithms [91.19304518033144]
検索システムにおける視覚モデルと人間の審美基準の整合を図る。
本研究では、視覚モデルと人間の美学をよりよく整合させるために、視覚モデルを微調整する嗜好に基づく強化学習手法を提案する。
論文 参考訳(メタデータ) (2024-06-13T17:59:20Z) - Unveiling The Factors of Aesthetic Preferences with Explainable AI [0.0]
本研究では,機械学習(ML)モデルを用いて,新しい視点を開拓する。
我々のモデルはこれらの属性を入力として処理し、画像の美的スコアを予測する。
本研究の目的は,画像における審美的嗜好の複雑な性質をMLを通して明らかにし,審美的判断に影響を及ぼす属性をより深く理解することである。
論文 参考訳(メタデータ) (2023-11-24T11:06:22Z) - Towards Artistic Image Aesthetics Assessment: a Large-scale Dataset and
a New Method [64.40494830113286]
まず、Boldbrush Artistic Image dataset (BAID)という大規模なAIAAデータセットを紹介します。
そこで我々は,芸術的イメージを評価するために,スタイル特異的で汎用的な美的情報を効果的に抽出し,活用する新たな手法であるSAANを提案する。
実験により,提案手法は提案したBAIDデータセット上で既存のIAA手法よりも優れていることが示された。
論文 参考訳(メタデータ) (2023-03-27T12:59:15Z) - VILA: Learning Image Aesthetics from User Comments with Vision-Language
Pretraining [53.470662123170555]
ユーザからのコメントから画像美学を学習し、マルチモーダルな美学表現を学習するための視覚言語事前学習手法を提案する。
具体的には、コントラスト的および生成的目的を用いて、画像テキストエンコーダ-デコーダモデルを事前訓練し、人間のラベルなしでリッチで汎用的な美的意味学を学習する。
以上の結果から,AVA-Captionsデータセットを用いた画像の美的字幕化において,事前学習した美的視覚言語モデルよりも優れていたことが示唆された。
論文 参考訳(メタデータ) (2023-03-24T23:57:28Z) - Understanding Aesthetics with Language: A Photo Critique Dataset for
Aesthetic Assessment [6.201485014848172]
74K画像と220Kコメントを含むCritique Photo Redditデータセット(RPCD)を提案する。
我々は、美的判断の指標として批判の感情の極性を利用する。
論文 参考訳(メタデータ) (2022-06-17T08:16:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。