論文の概要: Embodied Exploration of Latent Spaces and Explainable AI
- arxiv url: http://arxiv.org/abs/2410.14590v1
- Date: Fri, 18 Oct 2024 16:40:34 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-10-21 14:25:25.008734
- Title: Embodied Exploration of Latent Spaces and Explainable AI
- Title(参考訳): 潜伏空間の身体的探索と説明可能なAI
- Authors: Elizabeth Wilson, Mika Satomi, Alex McLean, Deva Schubert, Juan Felipe Amaya Gonzalez,
- Abstract要約: 本稿では,演奏者がニューラルオーディオ合成モデルと組み合わさった相互作用によって,そのようなモデルの潜伏空間を探索する方法について検討する。
私たちはパフォーマンスの背景と状況を提供し、説明可能なAIシステムの開発に貢献するための具体的プラクティスの可能性を強調します。
- 参考スコア(独自算出の注目度): 0.0
- License:
- Abstract: In this paper, we explore how performers' embodied interactions with a Neural Audio Synthesis model allow the exploration of the latent space of such a model, mediated through movements sensed by e-textiles. We provide background and context for the performance, highlighting the potential of embodied practices to contribute to developing explainable AI systems. By integrating various artistic domains with explainable AI principles, our interdisciplinary exploration contributes to the discourse on art, embodiment, and AI, offering insights into intuitive approaches found through bodily expression.
- Abstract(参考訳): 本稿では,電子テクスチャによって知覚される動作を通して,演奏者がニューラルオーディオ合成モデルと組み合わさって,そのようなモデルの潜在空間を探索する方法について検討する。
私たちはパフォーマンスの背景と状況を提供し、説明可能なAIシステムの開発に貢献するための具体的プラクティスの可能性を強調します。
さまざまな芸術領域と説明可能なAI原則を統合することで、私たちの学際的な探索は、芸術、実施、AIに関する議論に寄与し、身体表現を通じて見いだされる直感的なアプローチに関する洞察を提供する。
関連論文リスト
- A Mechanistic Explanatory Strategy for XAI [0.0]
本稿では,ディープラーニングシステムの機能的構造を説明するためのメカニズム的戦略を概説する。
メカニスティックアプローチによると、不透明なAIシステムの説明には、意思決定を促進するメカニズムの特定が含まれる。
この研究は、モデル組織を研究するための体系的なアプローチが、より単純な(あるいはより控えめな)説明可能性技術が欠落する可能性のある要素を明らかにすることを示唆している。
論文 参考訳(メタデータ) (2024-11-02T18:30:32Z) - Diffusion-Based Visual Art Creation: A Survey and New Perspectives [51.522935314070416]
本調査は,拡散に基づく視覚芸術創造の新たな領域を探求し,その発展を芸術的,技術的両面から検討する。
本研究は,芸術的要件が技術的課題にどのように変換されるかを明らかにし,視覚芸術創造における拡散法の設計と応用を強調した。
我々は、AIシステムが芸術的知覚と創造性において人間の能力をエミュレートし、潜在的に増強するメカニズムに光を当てることを目指している。
論文 参考訳(メタデータ) (2024-08-22T04:49:50Z) - Converging Paradigms: The Synergy of Symbolic and Connectionist AI in LLM-Empowered Autonomous Agents [55.63497537202751]
コネクショニストと象徴的人工知能(AI)の収束を探求する記事
従来、コネクショナリストAIはニューラルネットワークにフォーカスし、シンボリックAIはシンボリック表現とロジックを強調していた。
大型言語モデル(LLM)の最近の進歩は、人間の言語をシンボルとして扱う際のコネクショナリストアーキテクチャの可能性を強調している。
論文 参考訳(メタデータ) (2024-07-11T14:00:53Z) - Opening the Black-Box: A Systematic Review on Explainable AI in Remote Sensing [51.524108608250074]
ブラックボックス機械学習アプローチは、リモートセンシングにおける知識抽出における主要なモデリングパラダイムとなっている。
我々は、この分野における重要なトレンドを特定するための体系的なレビューを行い、新しい説明可能なAIアプローチに光を当てた。
また,課題と将来的な研究方向性について,より詳細な展望を述べる。
論文 参考訳(メタデータ) (2024-02-21T13:19:58Z) - On the Emergence of Symmetrical Reality [51.21203247240322]
物理仮想アマルガメーションの様々な形態を包含した統一表現を提供する対称現実感フレームワークを導入する。
我々は、対称現実の潜在的な応用を示すAI駆動型アクティブアシストサービスの例を提案する。
論文 参考訳(メタデータ) (2024-01-26T16:09:39Z) - Designing explainable artificial intelligence with active inference: A
framework for transparent introspection and decision-making [0.0]
我々は、アクティブ推論がどのようにして説明可能なAIシステムの設計に活用できるかについて議論する。
能動推論を用いた説明可能なAIシステムのためのアーキテクチャを提案する。
論文 参考訳(メタデータ) (2023-06-06T21:38:09Z) - DIME: Fine-grained Interpretations of Multimodal Models via Disentangled
Local Explanations [119.1953397679783]
我々は,マルチモーダルモデルの解釈における最先端化に注力する。
提案手法であるDIMEは,マルチモーダルモデルの高精度かつきめ細かな解析を可能にする。
論文 参考訳(メタデータ) (2022-03-03T20:52:47Z) - AI-based artistic representation of emotions from EEG signals: a
discussion on fairness, inclusion, and aesthetics [2.6928226868848864]
我々は、人間と機械が芸術的に感情を表現するために対話するAIベースのBrain-Computer Interface(BCI)を提案する。
この相互作用のダイナミクスを理解して、公正性、包摂性、美学の共存性を改善することを目指している。
論文 参考訳(メタデータ) (2022-02-07T14:51:02Z) - A general framework for scientifically inspired explanations in AI [76.48625630211943]
我々は、AIシステムの説明を実装可能な一般的なフレームワークの理論的基盤として、科学的説明の構造の概念をインスタンス化する。
このフレームワークは、AIシステムの"メンタルモデル"を構築するためのツールを提供することを目的としている。
論文 参考訳(メタデータ) (2020-03-02T10:32:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。