論文の概要: From "AI" to Probabilistic Automation: How Does Anthropomorphization of Technical Systems Descriptions Influence Trust?
- arxiv url: http://arxiv.org/abs/2404.16047v1
- Date: Mon, 8 Apr 2024 17:01:09 GMT
- ステータス: 処理完了
- システム内更新日: 2024-04-28 10:36:53.708929
- Title: From "AI" to Probabilistic Automation: How Does Anthropomorphization of Technical Systems Descriptions Influence Trust?
- Title(参考訳): AI"から確率的自動化へ:技術的システム記述の擬人化は信頼にどのように影響するか?
- Authors: Nanna Inie, Stefania Druga, Peter Zukerman, Emily M. Bender,
- Abstract要約: 本稿では,いわゆる「AI」制度の人為的形態的記述が,システムに対する信頼の自己評価に与える影響について検討する。
参加者は、全体的な非人為的製品記述よりも、人為的な製品記述を信頼しがちである。
- 参考スコア(独自算出の注目度): 10.608535718084926
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: This paper investigates the influence of anthropomorphized descriptions of so-called "AI" (artificial intelligence) systems on people's self-assessment of trust in the system. Building on prior work, we define four categories of anthropomorphization (1. Properties of a cognizer, 2. Agency, 3. Biological metaphors, and 4. Properties of a communicator). We use a survey-based approach (n=954) to investigate whether participants are likely to trust one of two (fictitious) "AI" systems by randomly assigning people to see either an anthropomorphized or a de-anthropomorphized description of the systems. We find that participants are no more likely to trust anthropomorphized over de-anthropmorphized product descriptions overall. The type of product or system in combination with different anthropomorphic categories appears to exert greater influence on trust than anthropomorphizing language alone, and age is the only demographic factor that significantly correlates with people's preference for anthropomorphized or de-anthropomorphized descriptions. When elaborating on their choices, participants highlight factors such as lesser of two evils, lower or higher stakes contexts, and human favoritism as driving motivations when choosing between product A and B, irrespective of whether they saw an anthropomorphized or a de-anthropomorphized description of the product. Our results suggest that "anthropomorphism" in "AI" descriptions is an aggregate concept that may influence different groups differently, and provide nuance to the discussion of whether anthropomorphization leads to higher trust and over-reliance by the general public in systems sold as "AI".
- Abstract(参考訳): 本稿では,いわゆる「AI」の人為的な記述の影響について考察する。
(芸術知能)
システムの信頼の自己評価に関するシステム。
先行研究に基づいて、人類形態化の4つのカテゴリを定義する。
(1。
識別器の特性
2.庁
3.生物の比喩・比喩
4.コミュニケータの特性)
私たちはサーベイベースアプローチを使用します
(n=954)
参加者が2つのうちの1つを信頼できるかどうか
(虚構)
「AI」制度は、人をランダムに人為的形態化または非人為的形態化記述のどちらかを見るように割り当てる。
参加者は、全体的な非人為的製品記述よりも、人為的な製品記述を信頼しがちである。
異なる人為的分類と組み合わせた製品やシステムの種類は、人為的形態化言語単独よりも信頼に強い影響を与えているようであり、年齢は、人の人的形態化または非人的形態化記述に対する嗜好と大きく相関する唯一の人口統計学的要因である。
選択において、参加者は、製品AとBの選択におけるモチベーションの動機として、2つの悪の低さや、利害関係の低さ、人間の好意などの要因を、その製品の人為的形態化または非人為的形態化の記述に拘わらず強調する。
以上の結果から,「AI」記述における「擬人化」は,異なる集団に異なる影響を及ぼす可能性のある集合概念であり,「AI」として販売されるシステムにおいて,人為的形態化が一般大衆の信頼と過度な信頼につながるかという議論にニュアンスを与えていることが示唆された。
関連論文リスト
- Position Paper: Against Spurious Sparks $-$ Dovelating Inflated AI
Claims [6.929834518749885]
我々は,現在行われている人工知能(AGI)の探索が,大規模言語モデル(LLM)に過度に貢献する人間のような品質を実現するための完璧な嵐であるかについて論じる。
いくつかの実験で、潜伏空間における人間解釈パターンの発見は驚くべき結果ではないことが実証された。
論文 参考訳(メタデータ) (2024-02-06T12:42:21Z) - AnthroScore: A Computational Linguistic Measure of Anthropomorphism [37.257294670068724]
擬人化とは、人間のような特徴が非人間的存在に寄与することである。
言語における暗黙的擬人化の自動尺度である AnthroScore を提示する。
論文 参考訳(メタデータ) (2024-02-03T06:36:11Z) - Towards Understanding Sycophancy in Language Models [49.99654432561934]
人間のフィードバックを利用した微調整を施したモデルにおける梅毒の有病率について検討した。
5つの最先端のAIアシスタントが、4つの異なる自由形式のテキスト生成タスクで常に梅毒を発現していることを示す。
以上の結果から、サイコファンシーは最先端のAIアシスタントの一般的な行動である可能性が示唆された。
論文 参考訳(メタデータ) (2023-10-20T14:46:48Z) - An evolutionary model of personality traits related to cooperative
behavior using a large language model [0.4972818675034513]
ゲーム理論的関係の文脈における性格特性の進化を,個人間利益が強い選択圧力を及ぼす状況として研究する。
協調行動に関連する性格特性の言語記述を遺伝子として用いるエージェントモデルを構築した。
これらの性格特性に基づいて行動決定を行う大規模言語モデル(LLM)から抽出された決定論的戦略は、行動特性として用いられる。
論文 参考訳(メタデータ) (2023-10-03T14:35:27Z) - Human-AI Coevolution [48.74579595505374]
Coevolution AIは、人間とAIアルゴリズムが相互に連続的に影響を及ぼすプロセスである。
本稿では,AIと複雑性科学の交点における新たな研究分野の基盤として,Coevolution AIを紹介した。
論文 参考訳(メタデータ) (2023-06-23T18:10:54Z) - Anthropomorphization of AI: Opportunities and Risks [24.137106159123892]
擬人化は、人間的な特徴を非人間的な実体に当てはめる傾向である。
AIシステムが広く採用されるにつれて、ユーザーがそれを人為的に形作る傾向は著しく高まっている。
我々は、近年のAI権利章典の青写真を通して分析された、客観的な法的意味について研究する。
論文 参考訳(メタデータ) (2023-05-24T06:39:45Z) - The Who in XAI: How AI Background Shapes Perceptions of AI Explanations [61.49776160925216]
私たちは、2つの異なるグループ、つまりAIのバックグラウンドを持つ人々といない人たちの、異なるタイプのAI説明に対する理解について、混合手法による研究を行います。
その結果,(1) 両群は異なる理由から不合理な数に対する信頼を示し,(2) それぞれの群は意図した設計以上の異なる説明に価値を見出した。
論文 参考訳(メタデータ) (2021-07-28T17:32:04Z) - Revealing Persona Biases in Dialogue Systems [64.96908171646808]
対話システムにおけるペルソナバイアスに関する最初の大規模研究について述べる。
我々は、異なる社会階級、性的指向、人種、性別のペルソナの分析を行う。
BlenderおよびDialoGPT対話システムの研究では、ペルソナの選択が生成された応答の害の程度に影響を与える可能性があることを示しています。
論文 参考訳(メタデータ) (2021-04-18T05:44:41Z) - Towards Abstract Relational Learning in Human Robot Interaction [73.67226556788498]
人間は環境における実体を豊かに表現する。
ロボットが人間とうまく対話する必要がある場合、同様の方法で実体、属性、一般化を表現する必要がある。
本研究では,人間とロボットの相互作用を通じて,これらの表現をどのように獲得するかという課題に対処する。
論文 参考訳(メタデータ) (2020-11-20T12:06:46Z) - Machine Common Sense [77.34726150561087]
機械の常識は、人工知能(AI)において広範で潜在的に無拘束な問題のままである
本稿では、対人インタラクションのようなドメインに焦点を当てたコモンセンス推論のモデル化の側面について論じる。
論文 参考訳(メタデータ) (2020-06-15T13:59:47Z) - Cognitive Anthropomorphism of AI: How Humans and Computers Classify
Images [0.0]
人間は認知人類同型(英: Cognitive anthropomorphism)、つまりAIが人間の知性と同じ性質を持つことを期待する。
このミスマッチは、適切な人間とAIの相互作用に障害をもたらす。
私は、人間とAIの分類のミスマッチに対処できるシステム設計に3つの戦略を提供します。
論文 参考訳(メタデータ) (2020-02-07T21:49:58Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。