論文の概要: AI-rays: Exploring Bias in the Gaze of AI Through a Multimodal Interactive Installation
- arxiv url: http://arxiv.org/abs/2410.03786v1
- Date: Thu, 3 Oct 2024 18:44:05 GMT
- ステータス: 処理完了
- システム内更新日: 2024-11-02 16:20:48.032224
- Title: AI-rays: Exploring Bias in the Gaze of AI Through a Multimodal Interactive Installation
- Title(参考訳): AI-ray:マルチモーダル・インタラクティブ・インスタレーションによるAIの迷路のバイアスを探る
- Authors: Ziyao Gao, Yiwen Zhang, Ling Li, Theodoros Papatheodorou, Wei Zeng,
- Abstract要約: 我々は、AIが参加者の外観から投機的アイデンティティを生成するインタラクティブなインスタレーションであるAI-rayを紹介する。
投機的なX線ビジョンを使用して、AIが生成する仮定と現実を対比し、AIの精査と偏見を比喩的に強調する。
- 参考スコア(独自算出の注目度): 7.939652622988465
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Data surveillance has become more covert and pervasive with AI algorithms, which can result in biased social classifications. Appearance offers intuitive identity signals, but what does it mean to let AI observe and speculate on them? We introduce AI-rays, an interactive installation where AI generates speculative identities from participants' appearance which are expressed through synthesized personal items placed in participants' bags. It uses speculative X-ray visions to contrast reality with AI-generated assumptions, metaphorically highlighting AI's scrutiny and biases. AI-rays promotes discussions on modern surveillance and the future of human-machine reality through a playful, immersive experience exploring AI biases.
- Abstract(参考訳): データ監視は、AIアルゴリズムによってより隠蔽され、普及し、バイアスのある社会分類をもたらす可能性がある。
外観は直感的なアイデンティティ信号を提供するが、AIがそれらを観察して推測させる意味は何だろうか?
参加者のバッグに置かれた合成された個人アイテムを通して表現される参加者の外観から、AIが投機的アイデンティティを生成するインタラクティブなインスタレーションであるAI-rayを紹介する。
投機的X線ビジョンを使用して、AIが生成する仮定と現実を対比し、AIの精査と偏見を比喩的に強調する。
AI-raysは、AIバイアスを探索する遊び心のある没入的な経験を通じて、現代の監視と人間と機械の現実の将来に関する議論を促進する。
関連論文リスト
- Navigating AI Fallibility: Examining People's Reactions and Perceptions of AI after Encountering Personality Misrepresentations [7.256711790264119]
ハイパーパーソナライズされたAIシステムは、パーソナライズされたレコメンデーションを提供するために人々の特性をプロファイルする。
これらのシステムは、人々の最も個人的な特性を推測する際にエラーに免疫がない。
人格の誤表現に遭遇した後、人々がどのように反応し、AIを知覚するかを検討するための2つの研究を行った。
論文 参考訳(メタデータ) (2024-05-25T21:27:15Z) - AIGCs Confuse AI Too: Investigating and Explaining Synthetic Image-induced Hallucinations in Large Vision-Language Models [37.04195231708092]
我々は、AI合成画像によるLVLM(Large Vision-Language Models)の悪化する幻覚現象を強調した。
注目すべきは、AIGC textbfhallucination biasに光を当てることである: 合成画像によって誘導される物体幻覚は、より多い量で特徴づけられる。
我々は,Q-formerとLinearプロジェクタについて検討した結果,合成画像は視覚投射後のトークン偏差を呈し,幻覚バイアスを増幅することがわかった。
論文 参考訳(メタデータ) (2024-03-13T13:56:34Z) - Agent AI: Surveying the Horizons of Multimodal Interaction [83.18367129924997]
エージェントAI(Agent AI)とは、視覚刺激や言語入力、その他の環境データを知覚できる対話型システムである。
我々は,バーチャルリアリティやシミュレートされたシーンを容易に作成し,仮想環境内に具体化されたエージェントと対話できる未来を構想する。
論文 参考訳(メタデータ) (2024-01-07T19:11:18Z) - AI-Generated Images as Data Source: The Dawn of Synthetic Era [61.879821573066216]
生成AIは、現実世界の写真によく似た合成画像を作成する可能性を解き放った。
本稿では、これらのAI生成画像を新しいデータソースとして活用するという革新的な概念を探求する。
実際のデータとは対照的に、AI生成データには、未整合のアブリダンスやスケーラビリティなど、大きなメリットがある。
論文 参考訳(メタデータ) (2023-10-03T06:55:19Z) - Fairness in AI and Its Long-Term Implications on Society [68.8204255655161]
AIフェアネスを詳しく見て、AIフェアネスの欠如が、時間の経過とともにバイアスの深化につながるかを分析します。
偏りのあるモデルが特定のグループに対してよりネガティブな現実的な結果をもたらすかについて議論する。
問題が続くと、他のリスクとの相互作用によって強化され、社会不安という形で社会に深刻な影響を及ぼす可能性がある。
論文 参考訳(メタデータ) (2023-04-16T11:22:59Z) - Seamful XAI: Operationalizing Seamful Design in Explainable AI [59.89011292395202]
AIシステムのミスは必然的であり、技術的制限と社会技術的ギャップの両方から生じる。
本稿では, 社会工学的・インフラ的ミスマッチを明らかにすることにより, シームレスな設計がAIの説明可能性を高めることを提案する。
43人のAI実践者と実際のエンドユーザでこのプロセスを探求します。
論文 参考訳(メタデータ) (2022-11-12T21:54:05Z) - Cybertrust: From Explainable to Actionable and Interpretable AI (AI2) [58.981120701284816]
Actionable and Interpretable AI (AI2)は、AIレコメンデーションにユーザの信頼度を明確に定量化し視覚化する。
これにより、AIシステムの予測を調べてテストすることで、システムの意思決定に対する信頼の基盤を確立することができる。
論文 参考訳(メタデータ) (2022-01-26T18:53:09Z) - A User-Centred Framework for Explainable Artificial Intelligence in
Human-Robot Interaction [70.11080854486953]
本稿では,XAIのソーシャル・インタラクティブな側面に着目したユーザ中心型フレームワークを提案する。
このフレームワークは、エキスパートでないユーザのために考えられた対話型XAIソリューションのための構造を提供することを目的としている。
論文 参考訳(メタデータ) (2021-09-27T09:56:23Z) - eXtended Artificial Intelligence: New Prospects of Human-AI Interaction
Research [8.315174426992087]
本稿では,XR-AI連続体に基づく人間-AI相互作用の理論的治療とモデルを提供する。
このことは、XRとAIの組み合わせが、人間とAIの相互作用とインターフェースの有効かつ体系的な研究に有益に貢献する理由を示している。
最初の実験は人間とロボットの相互作用において興味深いジェンダー効果を示し、第2の実験はレコメンデーターシステムのエリザ効果を明らかにした。
論文 参考訳(メタデータ) (2021-03-27T22:12:06Z) - A Survey of Embodied AI: From Simulators to Research Tasks [13.923234397344487]
ネットワークAI」の時代から「身体AI」への新たなパラダイムシフト
本稿では,最先端のAIシミュレータと研究を包括的に調査する。
論文 参考訳(メタデータ) (2021-03-08T17:31:19Z) - Player-AI Interaction: What Neural Network Games Reveal About AI as Play [14.63311356668699]
本稿では,人間がAIとどのように相互作用するかを学習し,実験する上で,ゲームは理想的な領域である,と論じる。
ニューラルネットワークゲームの体系的な調査を通じて、優勢な相互作用のメタファーとAIの相互作用パターンを特定した。
我々の研究は、ゲームとUXデザイナが人間とAIの相互作用の学習曲線を構築するためのフローを考えるべきであることを示唆している。
論文 参考訳(メタデータ) (2021-01-15T17:07:03Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。