論文の概要: Anthropomorphization of AI: Opportunities and Risks
- arxiv url: http://arxiv.org/abs/2305.14784v1
- Date: Wed, 24 May 2023 06:39:45 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-25 19:01:05.908372
- Title: Anthropomorphization of AI: Opportunities and Risks
- Title(参考訳): AIの擬人化 : 機会とリスク
- Authors: Ameet Deshpande, Tanmay Rajpurohit, Karthik Narasimhan, Ashwin Kalyan
- Abstract要約: 擬人化は、人間的な特徴を非人間的な実体に当てはめる傾向である。
AIシステムが広く採用されるにつれて、ユーザーがそれを人為的に形作る傾向は著しく高まっている。
我々は、近年のAI権利章典の青写真を通して分析された、客観的な法的意味について研究する。
- 参考スコア(独自算出の注目度): 24.137106159123892
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Anthropomorphization is the tendency to attribute human-like traits to
non-human entities. It is prevalent in many social contexts -- children
anthropomorphize toys, adults do so with brands, and it is a literary device.
It is also a versatile tool in science, with behavioral psychology and
evolutionary biology meticulously documenting its consequences. With widespread
adoption of AI systems, and the push from stakeholders to make it human-like
through alignment techniques, human voice, and pictorial avatars, the tendency
for users to anthropomorphize it increases significantly. We take a dyadic
approach to understanding this phenomenon with large language models (LLMs) by
studying (1) the objective legal implications, as analyzed through the lens of
the recent blueprint of AI bill of rights and the (2) subtle psychological
aspects customization and anthropomorphization. We find that anthropomorphized
LLMs customized for different user bases violate multiple provisions in the
legislative blueprint. In addition, we point out that anthropomorphization of
LLMs affects the influence they can have on their users, thus having the
potential to fundamentally change the nature of human-AI interaction, with
potential for manipulation and negative influence. With LLMs being
hyper-personalized for vulnerable groups like children and patients among
others, our work is a timely and important contribution. We propose a
conservative strategy for the cautious use of anthropomorphization to improve
trustworthiness of AI systems.
- Abstract(参考訳): 擬人化は、人間のような特性を非人間的実体に分類する傾向である。
子どもはおもちゃを人為的に形作り、大人はブランドでそれをし、文学的な装置である。
また、行動心理学や進化生物学を巧みに記録した科学の多用途ツールでもある。
AIシステムが広く採用され、アライメント技術、人間の声、画像アバターを通じて利害関係者がそれを人間らしくしようとすると、ユーザーはそれを人為的に形作る傾向が著しく高まる。
この現象を大規模言語モデル(llms)で理解するために,(1)ai権利章典の最近の青写真と(2)微妙な心理学的側面のカスタマイズと擬人化のレンズを通して分析し,客観的な法的意義について検討する。
異なるユーザベース向けにカスタマイズされた人為的なLDMが、立法青写真に複数の規定に違反していることがわかった。
さらに, LLMの人為的形態化がユーザに与える影響を指摘し, 操作性やネガティブな影響を伴って, 人間とAIの相互作用の性質を根本的に変える可能性を指摘した。
子供や患者などの脆弱なグループに対してllmがハイパーパーソナライズされているため、私たちの仕事はタイムリーで重要な貢献です。
我々は,AIシステムの信頼性を向上させるために,人為的形態化の慎重な利用のための保守的戦略を提案する。
関連論文リスト
- A Taxonomy of Linguistic Expressions That Contribute To Anthropomorphism of Language Technologies [55.99010491370177]
擬人化とは、非人間的な対象や実体に対する人間のような性質の帰属である。
人為的同型の影響を生産的に議論するためには、言語が成型できる様々な方法の共通語彙が必要である。
論文 参考訳(メタデータ) (2025-02-14T02:43:46Z) - Multi-turn Evaluation of Anthropomorphic Behaviours in Large Language Models [26.333097337393685]
ユーザーが大きな言語モデル(LLM)を人為的に形作る傾向は、AI開発者、研究者、政策立案者への関心が高まっている。
本稿では,現実的かつ多様な環境下での人為的 LLM の挙動を実証的に評価する手法を提案する。
まず,14の人為的行動のマルチターン評価を開発する。
次に,ユーザインタラクションのシミュレーションを用いて,スケーラブルで自動化されたアプローチを提案する。
第3に,対話型大規模人体調査(N=1101)を実施し,実際のユーザの人文的知覚を予測するモデル行動を検証する。
論文 参考訳(メタデータ) (2025-02-10T22:09:57Z) - Emergence of human-like polarization among large language model agents [61.622596148368906]
我々は、何千もの大規模言語モデルエージェントを含むネットワーク化されたシステムをシミュレートし、それらの社会的相互作用を発見し、人間のような偏極をもたらす。
人間とLLMエージェントの類似性は、社会的分極を増幅する能力に関する懸念を提起するだけでなく、それを緩和するための有効な戦略を特定するための貴重なテストベッドとして機能する可能性も持っている。
論文 参考訳(メタデータ) (2025-01-09T11:45:05Z) - Can Machines Think Like Humans? A Behavioral Evaluation of LLM-Agents in Dictator Games [7.504095239018173]
LLM(Large Language Model)ベースのエージェントは、現実のタスクを担い、人間の社会と関わるようになっている。
独裁者ゲームにおけるAIエージェントの利他的行動に異なるペルソナと実験的フレーミングがどう影響するかを検討する。
LLMに人間のようなアイデンティティを割り当てても、人間のような振る舞いは生じないことを示す。
論文 参考訳(メタデータ) (2024-10-28T17:47:41Z) - "I Am the One and Only, Your Cyber BFF": Understanding the Impact of GenAI Requires Understanding the Impact of Anthropomorphic AI [55.99010491370177]
我々は、人為的AIの社会的影響をマッピングしない限り、生成AIの社会的影響を徹底的にマッピングすることはできないと論じる。
人為的AIシステムは、人間のように知覚されるアウトプットを生成する傾向が強まっている。
論文 参考訳(メタデータ) (2024-10-11T04:57:41Z) - From "AI" to Probabilistic Automation: How Does Anthropomorphization of Technical Systems Descriptions Influence Trust? [10.608535718084926]
本稿では,いわゆる「AI」制度の人為的形態的記述が,システムに対する信頼の自己評価に与える影響について検討する。
参加者は、全体的な非人為的製品記述よりも、人為的な製品記述を信頼しがちである。
論文 参考訳(メタデータ) (2024-04-08T17:01:09Z) - Human-AI Coevolution [48.74579595505374]
Coevolution AIは、人間とAIアルゴリズムが相互に連続的に影響を及ぼすプロセスである。
本稿では,AIと複雑性科学の交点における新たな研究分野の基盤として,Coevolution AIを紹介した。
論文 参考訳(メタデータ) (2023-06-23T18:10:54Z) - Machine Psychology [54.287802134327485]
我々は、心理学にインスパイアされた行動実験において、研究のための実りある方向が、大きな言語モデルに係わっていると論じる。
本稿では,本手法が表に示す理論的視点,実験パラダイム,計算解析技術について述べる。
これは、パフォーマンスベンチマークを超えた、生成人工知能(AI)のための「機械心理学」の道を開くものだ。
論文 参考訳(メタデータ) (2023-03-24T13:24:41Z) - Learning to Influence Human Behavior with Offline Reinforcement Learning [70.7884839812069]
人間の準最適性を捉える必要があるような環境での影響に焦点を当てる。
人間によるオンライン実験は安全ではない可能性があり、環境の高忠実度シミュレータを作成することは現実的ではないことが多い。
オフライン強化学習は、観察された人間・人間の行動の要素を拡張し、組み合わせることで、人間に効果的に影響を及ぼすことができることを示す。
論文 参考訳(メタデータ) (2023-03-03T23:41:55Z) - A Cognitive Framework for Delegation Between Error-Prone AI and Human
Agents [0.0]
本研究では,認知にインスパイアされた行動モデルを用いて,人間エージェントとAIエージェントの両方の行動を予測する。
予測された振る舞いは、仲介者の使用を通じて人間とAIエージェントの制御を委譲するために使用される。
論文 参考訳(メタデータ) (2022-04-06T15:15:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。