論文の概要: Visions Of Destruction: Exploring Human Impact on Nature by Navigating
the Latent Space of a Diffusion Model via Gaze
- arxiv url: http://arxiv.org/abs/2401.06361v1
- Date: Thu, 28 Dec 2023 15:55:11 GMT
- ステータス: 処理完了
- システム内更新日: 2024-01-22 12:38:11.347779
- Title: Visions Of Destruction: Exploring Human Impact on Nature by Navigating
the Latent Space of a Diffusion Model via Gaze
- Title(参考訳): 破壊のビジョン:迷路を通した拡散モデルの潜伏空間をナビゲートすることで自然への影響を探る
- Authors: Mar Canet Sola and Varvara Guljajeva
- Abstract要約: 本稿では, 人類新世に焦点をあてた美術作品「破壊のビジョン」について論じる。
本論文は,視線追跡をオーディエンスインタラクションの方法として展開するインタラクティブアートヒストリーの早期参照を考察し,インタラクティブな潜在空間ナビゲーションを示すAI支援アートを提示する。
- 参考スコア(独自算出の注目度): 2.7195102129095003
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: This paper discusses the artwork "Visions of Destruction", with a primary
conceptual focus on the Anthropocene, which is communicated through audience
interaction and generative AI as artistic research methods. Gaze-based
interaction transitions the audience from mere observers to agents of landscape
transformation, fostering a profound, on-the-edge engagement with pressing
issues such as climate change and planetary destruction. The paper looks into
early references of interactive art history that deploy eye-tracking as a
method for audience interaction, and presents recent AI-aided artworks that
demonstrate interactive latent space navigation.
- Abstract(参考訳): 本稿では,芸術的研究手法としてのオーディエンスインタラクションと生成AIを通じて伝達される人類新世を中心に,アートワーク「破壊のビジョン」について論じる。
視線に基づく対話は、観客を単なるオブザーバーから風景変化のエージェントへと移行させ、気候変動や惑星破壊のような差し迫った問題との深い最先端の関わりを育む。
本論文は,視線追跡をオーディエンスインタラクションの方法として展開するインタラクティブアートヒストリーの早期参照を考察し,インタラクティブな潜在空間ナビゲーションを示すAI支援アートを提示する。
関連論文リスト
- Where Am I and What Will I See: An Auto-Regressive Model for Spatial Localization and View Prediction [60.964512894143475]
本稿では,空間的局所化とビュー予測を共同で扱う新しい自動回帰フレームワークである生成空間変換器(GST)を提案する。
本モデルでは,カメラのポーズを1つの画像から同時に推定し,新しいカメラのポーズから視点を予測し,空間認識と視覚予測のギャップを効果的に埋める。
論文 参考訳(メタデータ) (2024-10-24T17:58:05Z) - Reflections on Disentanglement and the Latent Space [0.0]
画像生成モデルの潜在空間は、圧縮された隠された視覚的知識の多次元空間である。
本稿では,多次元の文化アーカイブとして,多次元のポテンシャル空間として,潜在空間の二重ビューを提案する。
論文 参考訳(メタデータ) (2024-10-08T14:55:07Z) - Visions of Destruction: Exploring a Potential of Generative AI in Interactive Art [2.3020018305241337]
本稿では,対話型アートにおける生成AIの可能性について,実践に基づく研究手法を用いて検討する。
インタラクティブなアートワーク "Visions of Destruction" を詳細なケーススタディとして紹介し、動的でオーディエンス対応のエクスペリエンスを作り出すために、生成AIの革新的な利用を強調している。
論文 参考訳(メタデータ) (2024-08-26T21:20:45Z) - Learning from Observer Gaze:Zero-Shot Attention Prediction Oriented by Human-Object Interaction Recognition [13.956664101032006]
まず,740種類の相互作用カテゴリの530,000個の固定点を含む,IGという新しい視線固定データセットを収集した。
次に、ゼロショットインタラクション指向の注意予測タスクZeroIAを紹介し、トレーニング中に遭遇しないインタラクションに対する視覚的手がかりを予測するモデルに挑戦する。
第3に、人間観測者の認知過程をエミュレートしてZeroIA問題に取り組むための対話型注意モデルIAを提案する。
論文 参考訳(メタデータ) (2024-05-16T09:34:57Z) - Gaze-guided Hand-Object Interaction Synthesis: Dataset and Method [63.49140028965778]
本稿では,視線,手,物間相互作用の3次元モデリングを同時に行う最初のデータセットであるGazeHOIを紹介する。
これらの課題に対処するため,GHO-Diffusion という手動物体間相互作用拡散モデルを提案する。
また, GHO拡散のサンプリング段階におけるHOI-Manifold Guidanceを導入し, 生成した動きのきめ細かい制御を可能にする。
論文 参考訳(メタデータ) (2024-03-24T14:24:13Z) - THOR: Text to Human-Object Interaction Diffusion via Relation Intervention [51.02435289160616]
我々は、リレーショナルインターベンション(THOR)を用いたテキスト誘導型ヒューマンオブジェクト相互作用拡散モデルを提案する。
各拡散段階において、テキスト誘導された人間と物体の動きを開始し、その後、人と物体の関係を利用して物体の動きに介入する。
テキスト記述をシームレスに統合するText2HOIデータセットであるText-BEHAVEを,現在最大規模で公開されている3D HOIデータセットに構築する。
論文 参考訳(メタデータ) (2024-03-17T13:17:25Z) - Disentangled Interaction Representation for One-Stage Human-Object
Interaction Detection [70.96299509159981]
ヒューマン・オブジェクト・インタラクション(HOI)検出は、人間中心の画像理解のコアタスクである。
最近のワンステージ手法では、対話予測に有用な画像ワイドキューの収集にトランスフォーマーデコーダを採用している。
従来の2段階の手法は、非絡み合いで説明可能な方法で相互作用特徴を構成する能力から大きな恩恵を受ける。
論文 参考訳(メタデータ) (2023-12-04T08:02:59Z) - Embodied Agents for Efficient Exploration and Smart Scene Description [47.82947878753809]
我々は、自律的なエージェントが見えない屋内環境を探索し、マッピングする必要がある視覚ナビゲーションの設定に取り組む。
本稿では,視覚ロボット探査と画像キャプションの最近の進歩を組み合わせたアプローチを提案し,評価する。
提案手法は,環境の意味的知識を最大化し,繰り返しを避けるスマートなシーン記述を生成する。
論文 参考訳(メタデータ) (2023-01-17T19:28:01Z) - Sonic Interactions in Virtual Environments: the Egocentric Audio
Perspective of the Digital Twin [6.639956135839834]
本章は、仮想環境における音素相互作用に関する研究を、聴覚デジタル双生児の自我中心的な視点を備えた研究分野に変換することを目的とする。
このような代理店の保護者は、人間と技術の間の相互作用を促進する聴覚デジタル双生児である。
論文 参考訳(メタデータ) (2022-04-21T07:18:16Z) - GIMO: Gaze-Informed Human Motion Prediction in Context [75.52839760700833]
本研究では、高品質なボディポーズシーケンス、シーンスキャン、目視によるエゴ中心のビューを提供する大規模な人体動作データセットを提案する。
私たちのデータ収集は特定のシーンに縛られません。
視線の全可能性を実現するために,視線と運動枝の双方向通信を可能にする新しいネットワークアーキテクチャを提案する。
論文 参考訳(メタデータ) (2022-04-20T13:17:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。