論文の概要: Anthropomorphization of AI: Opportunities and Risks
- arxiv url: http://arxiv.org/abs/2305.14784v1
- Date: Wed, 24 May 2023 06:39:45 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-25 19:01:05.908372
- Title: Anthropomorphization of AI: Opportunities and Risks
- Title(参考訳): AIの擬人化 : 機会とリスク
- Authors: Ameet Deshpande, Tanmay Rajpurohit, Karthik Narasimhan, Ashwin Kalyan
- Abstract要約: 擬人化は、人間的な特徴を非人間的な実体に当てはめる傾向である。
AIシステムが広く採用されるにつれて、ユーザーがそれを人為的に形作る傾向は著しく高まっている。
我々は、近年のAI権利章典の青写真を通して分析された、客観的な法的意味について研究する。
- 参考スコア(独自算出の注目度): 24.137106159123892
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Anthropomorphization is the tendency to attribute human-like traits to
non-human entities. It is prevalent in many social contexts -- children
anthropomorphize toys, adults do so with brands, and it is a literary device.
It is also a versatile tool in science, with behavioral psychology and
evolutionary biology meticulously documenting its consequences. With widespread
adoption of AI systems, and the push from stakeholders to make it human-like
through alignment techniques, human voice, and pictorial avatars, the tendency
for users to anthropomorphize it increases significantly. We take a dyadic
approach to understanding this phenomenon with large language models (LLMs) by
studying (1) the objective legal implications, as analyzed through the lens of
the recent blueprint of AI bill of rights and the (2) subtle psychological
aspects customization and anthropomorphization. We find that anthropomorphized
LLMs customized for different user bases violate multiple provisions in the
legislative blueprint. In addition, we point out that anthropomorphization of
LLMs affects the influence they can have on their users, thus having the
potential to fundamentally change the nature of human-AI interaction, with
potential for manipulation and negative influence. With LLMs being
hyper-personalized for vulnerable groups like children and patients among
others, our work is a timely and important contribution. We propose a
conservative strategy for the cautious use of anthropomorphization to improve
trustworthiness of AI systems.
- Abstract(参考訳): 擬人化は、人間のような特性を非人間的実体に分類する傾向である。
子どもはおもちゃを人為的に形作り、大人はブランドでそれをし、文学的な装置である。
また、行動心理学や進化生物学を巧みに記録した科学の多用途ツールでもある。
AIシステムが広く採用され、アライメント技術、人間の声、画像アバターを通じて利害関係者がそれを人間らしくしようとすると、ユーザーはそれを人為的に形作る傾向が著しく高まる。
この現象を大規模言語モデル(llms)で理解するために,(1)ai権利章典の最近の青写真と(2)微妙な心理学的側面のカスタマイズと擬人化のレンズを通して分析し,客観的な法的意義について検討する。
異なるユーザベース向けにカスタマイズされた人為的なLDMが、立法青写真に複数の規定に違反していることがわかった。
さらに, LLMの人為的形態化がユーザに与える影響を指摘し, 操作性やネガティブな影響を伴って, 人間とAIの相互作用の性質を根本的に変える可能性を指摘した。
子供や患者などの脆弱なグループに対してllmがハイパーパーソナライズされているため、私たちの仕事はタイムリーで重要な貢献です。
我々は,AIシステムの信頼性を向上させるために,人為的形態化の慎重な利用のための保守的戦略を提案する。
関連論文リスト
- Can Machines Think Like Humans? A Behavioral Evaluation of LLM-Agents in Dictator Games [7.504095239018173]
LLM(Large Language Model)ベースのエージェントは、現実のタスクを担い、人間の社会と関わるようになっている。
本研究では,これらのAIエージェントの利他的行動に異なるペルソナと実験的フレーミングがどのような影響を及ぼすかを検討する。
これらのAIエージェントは、人為的なデータに基づいて訓練されているにもかかわらず、人間の決定を正確に予測することはできない。
論文 参考訳(メタデータ) (2024-10-28T17:47:41Z) - "I Am the One and Only, Your Cyber BFF": Understanding the Impact of GenAI Requires Understanding the Impact of Anthropomorphic AI [55.99010491370177]
我々は、人為的AIの社会的影響をマッピングしない限り、生成AIの社会的影響を徹底的にマッピングすることはできないと論じる。
人為的AIシステムは、人間のように知覚されるアウトプットを生成する傾向が強まっている。
論文 参考訳(メタデータ) (2024-10-11T04:57:41Z) - From Pixels to Personas: Investigating and Modeling Self-Anthropomorphism in Human-Robot Dialogues [29.549159419088294]
ロボットにおける自己人類同型は、好みや感情を表現するなど、対話における人間のような特徴の表示を通じて、自分自身を表わす。
これら2種類の応答に有意な差異を示し、あるタイプから別のタイプへの遷移を提案する。
Pix2Personaは、倫理的かつ魅力的なAIシステムを様々な実施形態で開発することを目的とした、新しいデータセットである。
論文 参考訳(メタデータ) (2024-10-04T19:06:24Z) - From "AI" to Probabilistic Automation: How Does Anthropomorphization of Technical Systems Descriptions Influence Trust? [10.608535718084926]
本稿では,いわゆる「AI」制度の人為的形態的記述が,システムに対する信頼の自己評価に与える影響について検討する。
参加者は、全体的な非人為的製品記述よりも、人為的な製品記述を信頼しがちである。
論文 参考訳(メタデータ) (2024-04-08T17:01:09Z) - Human-AI Coevolution [48.74579595505374]
Coevolution AIは、人間とAIアルゴリズムが相互に連続的に影響を及ぼすプロセスである。
本稿では,AIと複雑性科学の交点における新たな研究分野の基盤として,Coevolution AIを紹介した。
論文 参考訳(メタデータ) (2023-06-23T18:10:54Z) - Machine Psychology [54.287802134327485]
我々は、心理学にインスパイアされた行動実験において、研究のための実りある方向が、大きな言語モデルに係わっていると論じる。
本稿では,本手法が表に示す理論的視点,実験パラダイム,計算解析技術について述べる。
これは、パフォーマンスベンチマークを超えた、生成人工知能(AI)のための「機械心理学」の道を開くものだ。
論文 参考訳(メタデータ) (2023-03-24T13:24:41Z) - Learning to Influence Human Behavior with Offline Reinforcement Learning [70.7884839812069]
人間の準最適性を捉える必要があるような環境での影響に焦点を当てる。
人間によるオンライン実験は安全ではない可能性があり、環境の高忠実度シミュレータを作成することは現実的ではないことが多い。
オフライン強化学習は、観察された人間・人間の行動の要素を拡張し、組み合わせることで、人間に効果的に影響を及ぼすことができることを示す。
論文 参考訳(メタデータ) (2023-03-03T23:41:55Z) - Data-driven emotional body language generation for social robotics [58.88028813371423]
社会ロボティクスでは、人間型ロボットに感情の身体的表現を生成する能力を与えることで、人間とロボットの相互作用とコラボレーションを改善することができる。
我々は、手作業で設計されたいくつかの身体表現から学習する深層学習データ駆動フレームワークを実装した。
評価実験の結果, 生成した表現の人間同型とアニマシーは手作りの表現と異なる認識が得られなかった。
論文 参考訳(メタデータ) (2022-05-02T09:21:39Z) - A Cognitive Framework for Delegation Between Error-Prone AI and Human
Agents [0.0]
本研究では,認知にインスパイアされた行動モデルを用いて,人間エージェントとAIエージェントの両方の行動を予測する。
予測された振る舞いは、仲介者の使用を通じて人間とAIエージェントの制御を委譲するために使用される。
論文 参考訳(メタデータ) (2022-04-06T15:15:21Z) - The Introspective Agent: Interdependence of Strategy, Physiology, and
Sensing for Embodied Agents [51.94554095091305]
本論では, 環境の文脈において, 自己能力を考慮した内省的エージェントについて論じる。
自然と同じように、私たちは戦略を1つのツールとして再編成して、環境において成功させたいと考えています。
論文 参考訳(メタデータ) (2022-01-02T20:14:01Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。