論文の概要: Do We Need Responsible XR? Drawing on Responsible AI to Inform Ethical Research and Practice into XRAI / the Metaverse
- arxiv url: http://arxiv.org/abs/2504.04440v1
- Date: Sun, 06 Apr 2025 10:37:09 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-04-08 14:10:06.407084
- Title: Do We Need Responsible XR? Drawing on Responsible AI to Inform Ethical Research and Practice into XRAI / the Metaverse
- Title(参考訳): 責任あるXRは必要か? 責任あるAIを使ってXRAI/メタバースに倫理研究と実践をインフォームする
- Authors: Mark McGill, Joseph O'Hagan, Thomas Goodge, Graham Wilson, Mohamed Khamis, Veronika Krauß, Jan Gugenheimer,
- Abstract要約: このポジションペーパーは,CHI 2025 ワークショップ "Everyday AR through AI-in-the-Loop" のために書かれたものだ。
これは、HCIがResponsible XRを、Responsible AIと並行して定義する必要があるかどうかを反映している。
- 参考スコア(独自算出の注目度): 32.19313919405639
- License:
- Abstract: This position paper for the CHI 2025 workshop "Everyday AR through AI-in-the-Loop" reflects on whether as a field HCI needs to define Responsible XR as a parallel to, and in conjunction with, Responsible AI, addressing the unique vulnerabilities posed by mass adoption of wearable AI-enabled AR glasses and XR devices that could enact AI-driven human perceptual augmentation.
- Abstract(参考訳): CHI 2025ワークショップ"Everyday AR through AI-in-the-Loop"のこのポジションペーパーは、HCIがResponsible XRを、Responsible AIと並行して定義する必要があるかどうかを反映しており、Responsible AIと組み合わせて、AI駆動の人間の知覚増強を実現可能な、ウェアラブルAI対応ARメガネとXRデバイスの大量導入によるユニークな脆弱性に対処する。
関連論文リスト
- Who is Responsible? The Data, Models, Users or Regulations? Responsible Generative AI for a Sustainable Future [7.976680307696195]
責任人工知能(Responsible Artificial Intelligence, RAI)は、AIシステムの開発と展開における倫理的懸念に対処するための重要なフレームワークとして登場した。
本稿では、ChatGPT後における倫理的、透明性があり、説明可能なAIシステムを実装する上での課題と機会について考察する。
論文 参考訳(メタデータ) (2025-01-15T20:59:42Z) - Reconfiguring Participatory Design to Resist AI Realism [1.0878040851638]
本稿では,参加型デザインがAIリアリズムに疑問を呈し抵抗する役割を担っていることを論じる。
AIリアリズムの3つの側面について検討する:真のエンパワーメントを欠く民主化のファサード、人間の適応性への要求、AIシステムを実現する必要不可欠な人的労働の難しさ。
PDを再構成して価値中心のビジョンへの関与を継続し、AI以外の選択肢を探究し、AIシステムを目に見えるものにすることで、AIリアリズムに抵抗することを提案する。
論文 参考訳(メタデータ) (2024-06-05T13:21:46Z) - Explainable AI is Responsible AI: How Explainability Creates Trustworthy
and Socially Responsible Artificial Intelligence [9.844540637074836]
これは責任あるAIのトピックであり、信頼できるAIシステムを開発する必要性を強調している。
XAIは、責任あるAI(RAI)のためのビルディングブロックとして広く考えられている。
以上の結果から,XAIはRAIのすべての柱にとって不可欠な基盤である,という結論に至った。
論文 参考訳(メタデータ) (2023-12-04T00:54:04Z) - Responsible AI Research Needs Impact Statements Too [51.37368267352821]
責任ある人工知能(RAI)、倫理的AI、倫理的AIでの作業は例外ではない。
責任ある人工知能(RAI)、倫理的AI、倫理的AIでの作業は例外ではない。
論文 参考訳(メタデータ) (2023-11-20T14:02:28Z) - AI-HRI Brings New Dimensions to Human-Aware Design for Human-Aware AI [2.512827436728378]
我々は、AI-HRIが研究者の人間の認識するAIに対する考え方を変える方法について検討する。
現時点では、人間の認識するAIよりも視点を共有する機会はない。
論文 参考訳(メタデータ) (2022-10-21T09:25:06Z) - The Road to a Successful HRI: AI, Trust and ethicS-TRAITS [64.77385130665128]
このワークショップの目的は、人間とロボットの効果的で長期にわたるコラボレーションに向けた過去および現在進行中の研究についての洞察の交換を促進することである。
特に、自律的およびプロアクティブなインタラクションを実装するために必要なAI技術に焦点を当てています。
論文 参考訳(メタデータ) (2022-06-07T11:12:45Z) - Cybertrust: From Explainable to Actionable and Interpretable AI (AI2) [58.981120701284816]
Actionable and Interpretable AI (AI2)は、AIレコメンデーションにユーザの信頼度を明確に定量化し視覚化する。
これにより、AIシステムの予測を調べてテストすることで、システムの意思決定に対する信頼の基盤を確立することができる。
論文 参考訳(メタデータ) (2022-01-26T18:53:09Z) - A User-Centred Framework for Explainable Artificial Intelligence in
Human-Robot Interaction [70.11080854486953]
本稿では,XAIのソーシャル・インタラクティブな側面に着目したユーザ中心型フレームワークを提案する。
このフレームワークは、エキスパートでないユーザのために考えられた対話型XAIソリューションのための構造を提供することを目的としている。
論文 参考訳(メタデータ) (2021-09-27T09:56:23Z) - The Road to a Successful HRI: AI, Trust and ethicS-TRAITS [65.60507052509406]
本ワークショップの目的は,学界や産業の研究者に対して,人間とロボットの関係の学際性と学際性について議論する機会を提供することである。
論文 参考訳(メタデータ) (2021-03-23T16:52:12Z) - Socially Responsible AI Algorithms: Issues, Purposes, and Challenges [31.382000425295885]
技術者とAI研究者は、信頼できるAIシステムを開発する責任がある。
AIと人間の長期的な信頼を構築するためには、アルゴリズムの公正性を超えて考えることが鍵だ、と私たちは主張する。
論文 参考訳(メタデータ) (2021-01-01T17:34:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。