論文の概要: AI Automatons: AI Systems Intended to Imitate Humans
- arxiv url: http://arxiv.org/abs/2503.02250v1
- Date: Tue, 04 Mar 2025 03:55:38 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-03-05 19:21:45.240883
- Title: AI Automatons: AI Systems Intended to Imitate Humans
- Title(参考訳): AIオートマトン:人間を模倣するAIシステム
- Authors: Alexandra Olteanu, Solon Barocas, Su Lin Blodgett, Lisa Egede, Alicia DeVrio, Myra Cheng,
- Abstract要約: 人々の行動、仕事、能力、類似性、または人間性を模倣するように設計されたAIシステムが増加している。
このようなAIシステムの研究、設計、展開、可用性は、幅広い法的、倫理的、その他の社会的影響に対する懸念を喚起している。
- 参考スコア(独自算出の注目度): 54.19152688545896
- License:
- Abstract: There is a growing proliferation of AI systems designed to mimic people's behavior, work, abilities, likenesses, or humanness -- systems we dub AI automatons. Individuals, groups, or generic humans are being simulated to produce creative work in their styles, to respond to surveys in their places, to probe how they would use a new system before deployment, to provide users with assistance and companionship, and to anticipate their possible future behavior and interactions with others, just to name a few applications. The research, design, deployment, and availability of such AI systems have, however, also prompted growing concerns about a wide range of possible legal, ethical, and other social impacts. To both 1) facilitate productive discussions about whether, when, and how to design and deploy such systems, and 2) chart the current landscape of existing and prospective AI automatons, we need to tease apart determinant design axes and considerations that can aid our understanding of whether and how various design choices along these axes could mitigate -- or instead exacerbate -- potential adverse impacts that the development and use of AI automatons could give rise to. In this paper, through a synthesis of related literature and extensive examples of existing AI systems intended to mimic humans, we develop a conceptual framework to help foreground key axes of design variations and provide analytical scaffolding to foster greater recognition of the design choices available to developers, as well as the possible ethical implications these choices might have.
- Abstract(参考訳): 人々の行動、仕事、能力、類似性、人間性などを模倣するように設計されたAIシステムが増加している。
個人、グループ、ジェネリックな人間は、自分たちのスタイルで創造的な仕事を創出するためにシミュレートされ、自分の場所での調査に反応し、デプロイ前に新しいシステムをどのように使うかを探り、ユーザーに支援と協力を提供し、将来起こりうる振る舞いや他のアプリケーションとの相互作用を予測している。
しかし、そのようなAIシステムの研究、設計、展開、可用性は、幅広い法的、倫理的、その他の社会的影響に対する懸念の高まりも引き起こしている。
両方に
1)そのようなシステムをいつ、どのように設計し、展開するかについての生産的な議論を促進する。
2) 既存のAIオートマトンと将来的なAIオートマトンの現状をグラフ化し、これらの軸に沿ったさまざまな設計選択がAIオートマトンの開発と使用がもたらす潜在的な悪影響を緩和し、さらに悪化させるかどうかを理解する上で、決定的な設計軸と考慮事項を分解する必要があります。
本稿では、人間を模倣することを目的とした既存のAIシステムの関連文献と広範な事例を合成することにより、設計の変動の鍵軸を前もって構築し、開発者が利用できる設計選択の認識を高めるための解析的足場を提供することと、それらの選択が持つ倫理的意味合いを高めるための概念的枠組みを開発する。
関連論文リスト
- The AI-DEC: A Card-based Design Method for User-centered AI Explanations [20.658833770179903]
我々は,AIの説明の4次元を定義する設計手法であるAI-DECを開発した。
我々は、医療、金融、マネジメント産業の労働者との共同設計セッションを通じて、この手法を評価する。
実世界のシステムにおけるAI説明のユーザ中心設計におけるAI-DECの利用の意味について論じる。
論文 参考訳(メタデータ) (2024-05-26T22:18:38Z) - Characterizing and modeling harms from interactions with design patterns in AI interfaces [0.19116784879310028]
適応型AIシステムを用いたインタフェースの設計は、フィードバックループによって引き起こされるカスケード効果をもたらす可能性があると我々は主張する。
本稿では,AIインタフェース設計のインパクトアセスメントを構造化し,促進するAIシステムの設計強化制御(DECAI)を提案する。
論文 参考訳(メタデータ) (2024-04-17T13:30:45Z) - A Vision for Operationalising Diversity and Inclusion in AI [5.4897262701261225]
本研究は,AIエコシステムにおける多様性と包摂性(D&I)の倫理的命令の運用を想定することを目的とする。
AI開発における重要な課題は、D&Iの原則を効果的に運用することである。
本稿では,ジェネレーティブAI(GenAI)を用いたペルソナシミュレーションを活用したツール開発のためのフレームワークの構想を提案する。
論文 参考訳(メタデータ) (2023-12-11T02:44:39Z) - Predictable Artificial Intelligence [77.1127726638209]
本稿では予測可能なAIのアイデアと課題を紹介する。
それは、現在および将来のAIエコシステムの重要な妥当性指標を予測できる方法を探る。
予測可能性を達成することは、AIエコシステムの信頼、責任、コントロール、アライメント、安全性を促進するために不可欠である、と私たちは主張する。
論文 参考訳(メタデータ) (2023-10-09T21:36:21Z) - Seamful XAI: Operationalizing Seamful Design in Explainable AI [59.89011292395202]
AIシステムのミスは必然的であり、技術的制限と社会技術的ギャップの両方から生じる。
本稿では, 社会工学的・インフラ的ミスマッチを明らかにすることにより, シームレスな設計がAIの説明可能性を高めることを提案する。
43人のAI実践者と実際のエンドユーザでこのプロセスを探求します。
論文 参考訳(メタデータ) (2022-11-12T21:54:05Z) - Multi-AI Complex Systems in Humanitarian Response [0.0]
比較的単純な現実世界の人道的応答シナリオにおいても、マルチAIシステムがいかにして発生しうるかを説明し、潜在的に創発的で不正な行動を引き起こす。
本論文は、人道的対応の分野におけるこのトピックに関する最初の展示として、意識を高め、このドメインの展望を探究し、より広いコミュニティにおける今後の仕事の出発点を提供するように設計されている。
論文 参考訳(メタデータ) (2022-08-24T03:01:21Z) - Cybertrust: From Explainable to Actionable and Interpretable AI (AI2) [58.981120701284816]
Actionable and Interpretable AI (AI2)は、AIレコメンデーションにユーザの信頼度を明確に定量化し視覚化する。
これにより、AIシステムの予測を調べてテストすることで、システムの意思決定に対する信頼の基盤を確立することができる。
論文 参考訳(メタデータ) (2022-01-26T18:53:09Z) - Building Bridges: Generative Artworks to Explore AI Ethics [56.058588908294446]
近年,人工知能(AI)技術が社会に与える影響の理解と緩和に重点が置かれている。
倫理的AIシステムの設計における重要な課題は、AIパイプラインには複数の利害関係者があり、それぞれがそれぞれ独自の制約と関心を持っていることだ。
このポジションペーパーは、生成的アートワークが、アクセス可能で強力な教育ツールとして機能することで、この役割を果たすことができる可能性のいくつかを概説する。
論文 参考訳(メタデータ) (2021-06-25T22:31:55Z) - Distributed and Democratized Learning: Philosophy and Research
Challenges [80.39805582015133]
民主化学習(Dem-AI)という新しいデザイン哲学を提案する。
ヒトの社会的グループに触発され、提案されたDem-AIシステムの学習エージェントの専門グループは階層構造で自己組織化され、より効率的に学習タスクを遂行する。
本稿では,様々な学際分野に触発された未来のDem-AIシステムを実現するためのガイドラインとして,参照設計を提案する。
論文 参考訳(メタデータ) (2020-03-18T08:45:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。