論文の概要: Unmaking AI Imagemaking: A Methodological Toolkit for Critical
Investigation
- arxiv url: http://arxiv.org/abs/2307.09753v1
- Date: Wed, 19 Jul 2023 05:26:10 GMT
- ステータス: 処理完了
- システム内更新日: 2023-07-20 15:26:03.021509
- Title: Unmaking AI Imagemaking: A Methodological Toolkit for Critical
Investigation
- Title(参考訳): Unmaking AI Imagemaking: 批判的調査のための方法論ツールキット
- Authors: Luke Munn, Liam Magee, Vanicka Arora
- Abstract要約: 本稿では,AI画像モデルに対する3つの手法を提案する。
エコシステムの開放は、モデルの生産を取り巻く価値、構造、インセンティブを分析します。
出力をアンメイキングすると、モデルの生成結果が分析され、そのロジックが明らかになる。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: AI image models are rapidly evolving, disrupting aesthetic production in many
industries. However, understanding of their underlying archives, their logic of
image reproduction, and their persistent biases remains limited. What kind of
methods and approaches could open up these black boxes? In this paper, we
provide three methodological approaches for investigating AI image models and
apply them to Stable Diffusion as a case study. Unmaking the ecosystem analyzes
the values, structures, and incentives surrounding the model's production.
Unmaking the data analyzes the images and text the model draws upon, with their
attendant particularities and biases. Unmaking the output analyzes the model's
generative results, revealing its logics through prompting, reflection, and
iteration. Each mode of inquiry highlights particular ways in which the image
model captures, "understands," and recreates the world. This accessible
framework supports the work of critically investigating generative AI image
models and paves the way for more socially and politically attuned analyses of
their impacts in the world.
- Abstract(参考訳): AI画像モデルは急速に進化し、多くの業界で美的生産を阻害している。
しかし、その基盤となるアーカイブ、画像再生の論理、持続的バイアスの理解は依然として限られている。
どのような方法やアプローチが、これらのブラックボックスを開くのか?
本稿では,AI画像モデルを解析し,安定拡散に適用するための3つの手法を提案する。
エコシステムの開放は、モデルの生産を取り巻く価値、構造、インセンティブを分析します。
データを解析して、モデルが引き起こす画像とテキストを、付随する特殊性やバイアスで生成する。
アウトプットを外すと、モデルの生成結果を分析し、プロンプト、リフレクション、イテレーションを通じてそのロジックを明らかにする。
それぞれの調査モードは、イメージモデルが捉え、"理解"し、世界を再現する特定の方法を強調する。
このアクセシブルなフレームワークは、生成的AIイメージモデルを批判的に調査する作業をサポートし、より社会的、政治的に直感的に世界への影響を分析するための道を開く。
関連論文リスト
- A Survey on All-in-One Image Restoration: Taxonomy, Evaluation and Future Trends [67.43992456058541]
画像復元(IR)とは、ノイズ、ぼかし、気象効果などの劣化を除去しながら、画像の視覚的品質を改善する過程である。
従来のIR手法は、一般的に特定の種類の劣化をターゲットとしており、複雑な歪みを伴う現実のシナリオにおいて、その効果を制限している。
オールインワン画像復元(AiOIR)パラダイムが登場し、複数の劣化タイプに順応的に対処する統一されたフレームワークを提供する。
論文 参考訳(メタデータ) (2024-10-19T11:11:09Z) - Self-eXplainable AI for Medical Image Analysis: A Survey and New Outlooks [9.93411316886105]
Self-eXplainable AI (S-XAI)は、ディープラーニングモデルのトレーニングプロセスに説明可能性を直接組み込む。
本稿では、説明可能性の望ましい特性と、説明品質を評価するための既存の評価方法について概説する。
論文 参考訳(メタデータ) (2024-10-03T09:29:28Z) - GalleryGPT: Analyzing Paintings with Large Multimodal Models [64.98398357569765]
美術品の分析は、個人の審美性を豊かにし、批判的思考能力を促進することができる芸術鑑賞のための重要かつ基本的な技術である。
アートワークを自動解析する以前の作業は、主に分類、検索、その他の単純なタスクに焦点を当てており、AIの目標とは程遠い。
LLaVAアーキテクチャに基づいて微調整されたGalleryGPTと呼ばれる,絵画解析のための優れた大規模マルチモーダルモデルを提案する。
論文 参考訳(メタデータ) (2024-08-01T11:52:56Z) - ASAP: Interpretable Analysis and Summarization of AI-generated Image Patterns at Scale [20.12991230544801]
生成画像モデルは、現実的な画像を生成するための有望な技術として登場してきた。
ユーザーがAI生成画像のパターンを効果的に識別し理解できるようにするための需要が高まっている。
我々はAI生成画像の異なるパターンを自動的に抽出する対話型可視化システムASAPを開発した。
論文 参考訳(メタデータ) (2024-04-03T18:20:41Z) - Generative AI in Vision: A Survey on Models, Metrics and Applications [0.0]
生成AIモデルは、現実的で多様なデータサンプルの作成を可能にすることで、さまざまな分野に革命をもたらした。
これらのモデルの中で、拡散モデルは高品質な画像、テキスト、オーディオを生成するための強力なアプローチとして現れている。
本稿では,AI拡散モデルとレガシモデルについて概観し,その基礎となる技術,異なる領域にわたる応用,課題について概説する。
論文 参考訳(メタデータ) (2024-02-26T07:47:12Z) - Diffusion Models for Image Restoration and Enhancement -- A
Comprehensive Survey [96.99328714941657]
本稿では,近年の拡散モデルに基づく画像復元手法について概観する。
我々は、赤外線とブラインド/現実世界の両方で拡散モデルを用いて、革新的なデザインを分類し、強調する。
本稿では,拡散モデルに基づくIRの今後の研究に向けた5つの可能性と課題を提案する。
論文 参考訳(メタデータ) (2023-08-18T08:40:38Z) - Foundational Models Defining a New Era in Vision: A Survey and Outlook [151.49434496615427]
視覚シーンの構成的性質を観察し、推論する視覚システムは、我々の世界を理解するのに不可欠である。
モデルは、このようなモダリティと大規模なトレーニングデータとのギャップを埋めることを学び、コンテキスト推論、一般化、テスト時の迅速な機能を容易にした。
このようなモデルの出力は、例えば、バウンディングボックスを設けて特定のオブジェクトをセグメント化したり、画像や映像シーンについて質問したり、言語命令でロボットの動作を操作することで対話的な対話を行うなど、リトレーニングすることなく、人為的なプロンプトによって変更することができる。
論文 参考訳(メタデータ) (2023-07-25T17:59:18Z) - Morphological Image Analysis and Feature Extraction for Reasoning with
AI-based Defect Detection and Classification Models [10.498224499451991]
本稿では,画像から欠陥(DefChars)の形態的特徴を抽出するAI-Reasonerを提案する。
AI-Reasonerは、視覚化(チャート)とテキストの説明をエクスポートし、マスクによる欠陥検出と分類モデルによるアウトプットに関する洞察を提供する。
また、データ前処理と全体的なモデルパフォーマンスを強化する効果的な緩和戦略も提供する。
論文 参考訳(メタデータ) (2023-07-21T15:22:32Z) - Beyond Explaining: Opportunities and Challenges of XAI-Based Model
Improvement [75.00655434905417]
説明可能な人工知能(XAI)は、高度に複雑な機械学習(ML)モデルに透明性をもたらす新たな研究分野である。
本稿では,機械学習モデルの諸特性を改善するために,XAIを実用的に応用する手法を概観する。
実験では,モデル一般化能力や推論などの特性を改善する上で,説明がどのように役立つのかを,おもちゃと現実的な設定で実証的に示す。
論文 参考訳(メタデータ) (2022-03-15T15:44:28Z) - Deep Co-Attention Network for Multi-View Subspace Learning [73.3450258002607]
マルチビューサブスペース学習のための深層コアテンションネットワークを提案する。
共通情報と相補情報の両方を敵意で抽出することを目的としている。
特に、新しいクロス再構成損失を使用し、ラベル情報を利用して潜在表現の構築を誘導する。
論文 参考訳(メタデータ) (2021-02-15T18:46:44Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。