論文の概要: "I Hadn't Thought About That": Creators of Human-like AI Weigh in on Ethics And Neurodivergence
- arxiv url: http://arxiv.org/abs/2506.12098v1
- Date: Thu, 12 Jun 2025 17:16:28 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-17 17:28:45.106046
- Title: "I Hadn't Thought About That": Creators of Human-like AI Weigh in on Ethics And Neurodivergence
- Title(参考訳): 人類のようなAIの創造者たち、倫理とニューロディバージェンスに期待
- Authors: Naba Rizvi, Taggert Smith, Tanvi Vidyala, Mya Bolds, Harper Strickland, Andrew Begel, Rua Williams, Imani Munyaka,
- Abstract要約: 人間のようなAIエージェントはますます人気が高まっているが、それらは様々な倫理的懸念を呈している。
我々は,これらの技術を構築し,設計した人々の経験を調査し,ニューロディバージェンスの理解と受容に関する洞察を得る。
我々は、これが社会における自閉症の包摂に与える影響について検討し、より倫理的な研究方向に対する体系的な変化を推奨する。
- 参考スコア(独自算出の注目度): 3.31925780596913
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Human-like AI agents such as robots and chatbots are becoming increasingly popular, but they present a variety of ethical concerns. The first concern is in how we define humanness, and how our definition impacts communities historically dehumanized by scientific research. Autistic people in particular have been dehumanized by being compared to robots, making it even more important to ensure this marginalization is not reproduced by AI that may promote neuronormative social behaviors. Second, the ubiquitous use of these agents raises concerns surrounding model biases and accessibility. In our work, we investigate the experiences of the people who build and design these technologies to gain insights into their understanding and acceptance of neurodivergence, and the challenges in making their work more accessible to users with diverse needs. Even though neurodivergent individuals are often marginalized for their unique communication styles, nearly all participants overlooked the conclusions their end-users and other AI system makers may draw about communication norms from the implementation and interpretation of humanness applied in participants' work. This highlights a major gap in their broader ethical considerations, compounded by some participants' neuronormative assumptions about the behaviors and traits that distinguish "humans" from "bots" and the replication of these assumptions in their work. We examine the impact this may have on autism inclusion in society and provide recommendations for additional systemic changes towards more ethical research directions.
- Abstract(参考訳): ロボットやチャットボットのような人間のようなAIエージェントは、ますます人気が高まっているが、それらは様々な倫理的懸念を呈している。
最初の懸念は、人間性をどのように定義するか、そして私たちの定義が歴史的に科学的研究によって非人間化されたコミュニティにどのように影響するかである。
特に自閉症の人々はロボットと比較して非人間化されており、この辺縁化が神経ノルミ的社会行動を促進するAIによって再現されないようにすることがさらに重要である。
第2に、これらのエージェントのユビキタス使用は、モデルバイアスとアクセシビリティに関する懸念を提起する。
本研究では,これらの技術を構築し,設計した人々の経験を考察し,ニューロディバージェンスに対する理解と受容に関する洞察を得るとともに,多様なニーズを持ったユーザに対して作業がよりアクセスしやすくする上での課題について考察する。
ニューロディバージェントな個人はしばしば独自のコミュニケーションスタイルのために疎外されているが、ほとんどすべての参加者は、エンドユーザーや他のAIシステムメーカーが、参加者の作業に適用される人間性の実装と解釈からコミュニケーション規範を描いている結論を見落としている。
これは、「人間」と「ボット」とを区別する行動や特徴について、一部の参加者の神経ノルミ的仮定と、これらの仮定の作業における複製によって、より広範な倫理的考察における大きなギャップを浮き彫りにしている。
我々は、これが社会における自閉症の包摂に与える影響について検討し、より倫理的な研究方向に対する体系的な変化を推奨する。
関連論文リスト
- Rude Humans and Vengeful Robots: Examining Human Perceptions of Robot Retaliatory Intentions in Professional Settings [0.0]
本稿では,共同作業環境において参加者を没入させるために,ユニークな一対一視点ビデオを用いた2×3オンライン実験の結果を報告する。
結果は,人間の行動に拘わらず,ロボットが社会的期待に応えて行動することが期待されている一方で,人間の無礼な面において,ロボットが大きな人間であると認識されるメリットがあることを明らかにする。
論文 参考訳(メタデータ) (2025-03-21T08:12:40Z) - Aligning Generalisation Between Humans and Machines [74.120848518198]
AI技術は、科学的発見と意思決定において人間を支援することができるが、民主主義と個人を妨害することもある。
AIの責任ある使用と人間-AIチームへの参加は、AIアライメントの必要性をますます示している。
これらの相互作用の重要かつしばしば見落とされがちな側面は、人間と機械が一般化する異なる方法である。
論文 参考訳(メタデータ) (2024-11-23T18:36:07Z) - Human Bias in the Face of AI: The Role of Human Judgement in AI Generated Text Evaluation [48.70176791365903]
本研究では、偏見がAIと人為的コンテンツの知覚をどう形成するかを考察する。
ラベル付きおよびラベルなしコンテンツに対するヒトのラッカーの反応について検討した。
論文 参考訳(メタデータ) (2024-09-29T04:31:45Z) - Explainable Human-AI Interaction: A Planning Perspective [32.477369282996385]
AIシステムは、ループ内の人間に説明可能である必要がある。
我々は、AIエージェントがメンタルモデルを使用して人間の期待に沿うか、あるいは説明的コミュニケーションを通じて期待を変更する方法について論じる。
本書の主な焦点は、協調的なシナリオであるが、同じ精神モデルが難読化や偽造にどのように使用できるかを指摘したい。
論文 参考訳(メタデータ) (2024-05-19T22:22:21Z) - Enhancing Human Capabilities through Symbiotic Artificial Intelligence
with Shared Sensory Experiences [6.033393331015051]
我々は、共生人工知能と共有感覚体験(SAISSE)と呼ばれる人間とAIの相互作用における新しい概念を紹介する。
SAISSEは、共有感覚体験を通じて、AIシステムと人間のユーザ間の相互に有益な関係を確立することを目的としている。
本稿では,AIシステムとユーザの両方の長期的な成長と開発のためのメモリストレージユニットの導入について論じる。
論文 参考訳(メタデータ) (2023-05-26T04:13:59Z) - A Rubric for Human-like Agents and NeuroAI [2.749726993052939]
コントリビュートされた研究は、振る舞いの模倣から機械学習メソッドのテストまで幅広い。
これら3つの目標のうちの1つが自動的に他の目標の進捗に変換されることは想定できない。
これは、弱く強いニューロAIとヒトのようなエージェントの例を用いて明らかにされている。
論文 参考訳(メタデータ) (2022-12-08T16:59:40Z) - The Road to a Successful HRI: AI, Trust and ethicS-TRAITS [64.77385130665128]
このワークショップの目的は、人間とロボットの効果的で長期にわたるコラボレーションに向けた過去および現在進行中の研究についての洞察の交換を促進することである。
特に、自律的およびプロアクティブなインタラクションを実装するために必要なAI技術に焦点を当てています。
論文 参考訳(メタデータ) (2022-06-07T11:12:45Z) - Data-driven emotional body language generation for social robotics [58.88028813371423]
社会ロボティクスでは、人間型ロボットに感情の身体的表現を生成する能力を与えることで、人間とロボットの相互作用とコラボレーションを改善することができる。
我々は、手作業で設計されたいくつかの身体表現から学習する深層学習データ駆動フレームワークを実装した。
評価実験の結果, 生成した表現の人間同型とアニマシーは手作りの表現と異なる認識が得られなかった。
論文 参考訳(メタデータ) (2022-05-02T09:21:39Z) - Machine Common Sense [77.34726150561087]
機械の常識は、人工知能(AI)において広範で潜在的に無拘束な問題のままである
本稿では、対人インタラクションのようなドメインに焦点を当てたコモンセンス推論のモデル化の側面について論じる。
論文 参考訳(メタデータ) (2020-06-15T13:59:47Z) - Human Perception of Intrinsically Motivated Autonomy in Human-Robot
Interaction [2.485182034310304]
人間に生息する環境でロボットを使用する場合の課題は、人間同士の相互作用によって引き起こされる摂動に対して、魅力的だが堅牢な振る舞いを設計することである。
我々のアイデアは、ロボットに本質的なモチベーション(IM)を持たせることで、新しい状況に対処し、人間以外の真の社会的存在として現れるようにすることです。
本稿では、自律的に生成された振る舞いを相互に比較できる「ロボット学者」による研究設計について述べる。
論文 参考訳(メタデータ) (2020-02-14T09:49:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。