論文の概要: Visions Of Destruction: Exploring Human Impact on Nature by Navigating
the Latent Space of a Diffusion Model via Gaze
- arxiv url: http://arxiv.org/abs/2401.06361v1
- Date: Thu, 28 Dec 2023 15:55:11 GMT
- ステータス: 処理完了
- システム内更新日: 2024-01-22 12:38:11.347779
- Title: Visions Of Destruction: Exploring Human Impact on Nature by Navigating
the Latent Space of a Diffusion Model via Gaze
- Title(参考訳): 破壊のビジョン:迷路を通した拡散モデルの潜伏空間をナビゲートすることで自然への影響を探る
- Authors: Mar Canet Sola and Varvara Guljajeva
- Abstract要約: 本稿では, 人類新世に焦点をあてた美術作品「破壊のビジョン」について論じる。
本論文は,視線追跡をオーディエンスインタラクションの方法として展開するインタラクティブアートヒストリーの早期参照を考察し,インタラクティブな潜在空間ナビゲーションを示すAI支援アートを提示する。
- 参考スコア(独自算出の注目度): 2.7195102129095003
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: This paper discusses the artwork "Visions of Destruction", with a primary
conceptual focus on the Anthropocene, which is communicated through audience
interaction and generative AI as artistic research methods. Gaze-based
interaction transitions the audience from mere observers to agents of landscape
transformation, fostering a profound, on-the-edge engagement with pressing
issues such as climate change and planetary destruction. The paper looks into
early references of interactive art history that deploy eye-tracking as a
method for audience interaction, and presents recent AI-aided artworks that
demonstrate interactive latent space navigation.
- Abstract(参考訳): 本稿では,芸術的研究手法としてのオーディエンスインタラクションと生成AIを通じて伝達される人類新世を中心に,アートワーク「破壊のビジョン」について論じる。
視線に基づく対話は、観客を単なるオブザーバーから風景変化のエージェントへと移行させ、気候変動や惑星破壊のような差し迫った問題との深い最先端の関わりを育む。
本論文は,視線追跡をオーディエンスインタラクションの方法として展開するインタラクティブアートヒストリーの早期参照を考察し,インタラクティブな潜在空間ナビゲーションを示すAI支援アートを提示する。
関連論文リスト
- Egocentric Scene-aware Human Trajectory Prediction [15.346096596482857]
本研究では,周囲の静的なシーン上での人間の動作条件を予測する手法を提案する。
本モデルでは,衝突回避および軌道モードカバレッジの重要な指標について,既存の手法よりも優れる。
論文 参考訳(メタデータ) (2024-03-27T21:43:12Z) - Gaze-guided Hand-Object Interaction Synthesis: Benchmark and Method [63.49140028965778]
本稿では,第1回 Gaze-Guided Hand-Object Interaction データセットである GazeHOI を紹介し,視線誘導ハンドオブジェクトインタラクションを合成するための新しいタスクを提案する。
我々のデータセットであるGazeHOIは、平均時間19.1秒、サブシーケンス812、さまざまなサイズの33のオブジェクトを含む479のシーケンスからなる、視線、手、オブジェクトの相互作用を同時に3Dモデリングする。
論文 参考訳(メタデータ) (2024-03-24T14:24:13Z) - THOR: Text to Human-Object Interaction Diffusion via Relation Intervention [51.02435289160616]
我々は、リレーショナルインターベンション(THOR)を用いたテキスト誘導型ヒューマンオブジェクト相互作用拡散モデルを提案する。
各拡散段階において、テキスト誘導された人間と物体の動きを開始し、その後、人と物体の関係を利用して物体の動きに介入する。
テキスト記述をシームレスに統合するText2HOIデータセットであるText-BEHAVEを,現在最大規模で公開されている3D HOIデータセットに構築する。
論文 参考訳(メタデータ) (2024-03-17T13:17:25Z) - Sim-to-Real Causal Transfer: A Metric Learning Approach to
Causally-Aware Interaction Representations [62.48505112245388]
エージェント相互作用の現代的表現の因果認識を詳細に検討する。
近年の表現は、非因果剤の摂動に対して部分的に耐性があることが示されている。
因果アノテーションを用いた潜在表現を正規化するための計量学習手法を提案する。
論文 参考訳(メタデータ) (2023-12-07T18:57:03Z) - Disentangled Interaction Representation for One-Stage Human-Object
Interaction Detection [70.96299509159981]
ヒューマン・オブジェクト・インタラクション(HOI)検出は、人間中心の画像理解のコアタスクである。
最近のワンステージ手法では、対話予測に有用な画像ワイドキューの収集にトランスフォーマーデコーダを採用している。
従来の2段階の手法は、非絡み合いで説明可能な方法で相互作用特徴を構成する能力から大きな恩恵を受ける。
論文 参考訳(メタデータ) (2023-12-04T08:02:59Z) - Embodied Agents for Efficient Exploration and Smart Scene Description [47.82947878753809]
我々は、自律的なエージェントが見えない屋内環境を探索し、マッピングする必要がある視覚ナビゲーションの設定に取り組む。
本稿では,視覚ロボット探査と画像キャプションの最近の進歩を組み合わせたアプローチを提案し,評価する。
提案手法は,環境の意味的知識を最大化し,繰り返しを避けるスマートなシーン記述を生成する。
論文 参考訳(メタデータ) (2023-01-17T19:28:01Z) - Sonic Interactions in Virtual Environments: the Egocentric Audio
Perspective of the Digital Twin [6.639956135839834]
本章は、仮想環境における音素相互作用に関する研究を、聴覚デジタル双生児の自我中心的な視点を備えた研究分野に変換することを目的とする。
このような代理店の保護者は、人間と技術の間の相互作用を促進する聴覚デジタル双生児である。
論文 参考訳(メタデータ) (2022-04-21T07:18:16Z) - GIMO: Gaze-Informed Human Motion Prediction in Context [75.52839760700833]
本研究では、高品質なボディポーズシーケンス、シーンスキャン、目視によるエゴ中心のビューを提供する大規模な人体動作データセットを提案する。
私たちのデータ収集は特定のシーンに縛られません。
視線の全可能性を実現するために,視線と運動枝の双方向通信を可能にする新しいネットワークアーキテクチャを提案する。
論文 参考訳(メタデータ) (2022-04-20T13:17:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。