論文の概要: Artificial Intelligence can facilitate selfish decisions by altering the
appearance of interaction partners
- arxiv url: http://arxiv.org/abs/2306.04484v1
- Date: Wed, 7 Jun 2023 14:53:12 GMT
- ステータス: 処理完了
- システム内更新日: 2023-06-08 14:02:06.536559
- Title: Artificial Intelligence can facilitate selfish decisions by altering the
appearance of interaction partners
- Title(参考訳): 人工知能は相互作用パートナーの出現を変えることで自己決定を促進する
- Authors: Nils K\"obis, Philipp Lorenz-Spreen, Tamer Ajaj, Jean-Francois
Bonnefon, Ralph Hertwig, Iyad Rahwan
- Abstract要約: 本研究では,外見変化技術であるぼやけたフィルターが,他者に対する個人行動に与える影響について検討する。
その結果,外見がぼやけている個人に向けられた利己的行動の顕著な増加が示唆された。
これらの結果は、他者の認識を変えるAI技術に関する幅広い倫理的議論の必要性を強調している。
- 参考スコア(独自算出の注目度): 2.3208437191245133
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The increasing prevalence of image-altering filters on social media and video
conferencing technologies has raised concerns about the ethical and
psychological implications of using Artificial Intelligence (AI) to manipulate
our perception of others. In this study, we specifically investigate the
potential impact of blur filters, a type of appearance-altering technology, on
individuals' behavior towards others. Our findings consistently demonstrate a
significant increase in selfish behavior directed towards individuals whose
appearance is blurred, suggesting that blur filters can facilitate moral
disengagement through depersonalization. These results emphasize the need for
broader ethical discussions surrounding AI technologies that modify our
perception of others, including issues of transparency, consent, and the
awareness of being subject to appearance manipulation by others. We also
emphasize the importance of anticipatory experiments in informing the
development of responsible guidelines and policies prior to the widespread
adoption of such technologies.
- Abstract(参考訳): ソーシャルメディアやビデオ会議技術における画像修正フィルターの普及は、人工知能(AI)による他者の知覚の操作による倫理的・心理的な影響を懸念している。
本研究では,個々人の他者に対する行動に対する外観変化技術であるぼかしフィルタの潜在的影響について検討した。
以上の結果から, 外見がぼやけている個人に対して, 利己的行動の著しい増加が示され, ぼやけたフィルターは非人格化を通じて道徳的な離脱を促進することが示唆された。
これらの結果は、透明性、同意、他者による外見操作を受けることの認識を含む、他者に対する認識を変更するAI技術に関する広範な倫理的議論の必要性を強調している。
また、このような技術の普及に先立って、責任あるガイドラインや政策の開発を知らせる予測実験の重要性も強調する。
関連論文リスト
- A Survey on Transferability of Adversarial Examples across Deep Neural
Networks [54.47263618782188]
逆の例では、機械学習モデルを操作して誤った予測を行うことができます。
敵の例の転送可能性によって"ブラックボックス"攻撃が可能になり、ターゲットモデルの詳細な知識の必要性を回避することができる。
本研究は, 対角移動可能性の展望を考察した。
論文 参考訳(メタデータ) (2023-10-26T17:45:26Z) - Predictable Artificial Intelligence [67.79118050651908]
予測可能性を達成することは、AIエコシステムの信頼、責任、コントロール、アライメント、安全性を促進するために不可欠である、と私たちは主張する。
本稿では,予測可能なAIに関する疑問,仮説,課題を解明することを目的とする。
論文 参考訳(メタデータ) (2023-10-09T21:36:21Z) - Analyzing Character and Consciousness in AI-Generated Social Content: A
Case Study of Chirper, the AI Social Network [0.0]
この研究はAIの振る舞いを包括的に調査し、多様な設定がチャーパーの反応に与える影響を分析している。
一連の認知テストを通じて、この研究はチャーパーズの自己認識とパターン認識の能力を評価する。
この研究の興味深い側面は、チャーパーのハンドルやパーソナリティのタイプがパフォーマンスに与える影響を探ることである。
論文 参考訳(メタデータ) (2023-08-30T15:40:18Z) - Social AI and the Challenges of the Human-AI Ecosystem [60.26761762025781]
社会AIにおける主要なオープンな質問について論じ、技術的および科学的課題を概説する。
我々は,複雑システム,ネットワーク科学,AIの交差点にソーシャルAIの基礎を構築することを提案する。
論文 参考訳(メタデータ) (2023-06-23T18:10:54Z) - Anthropomorphization of AI: Opportunities and Risks [24.137106159123892]
擬人化は、人間的な特徴を非人間的な実体に当てはめる傾向である。
AIシステムが広く採用されるにつれて、ユーザーがそれを人為的に形作る傾向は著しく高まっている。
我々は、近年のAI権利章典の青写真を通して分析された、客観的な法的意味について研究する。
論文 参考訳(メタデータ) (2023-05-24T06:39:45Z) - Self-mediated exploration in artificial intelligence inspired by
cognitive psychology [1.3351610617039975]
物理環境の探索は、データ取得に必須の先駆者であり、分析的または直接的な試行を通じて知識生成を可能にする。
この研究は、人間の行動と人工エージェントを結び付け、自己開発を支援する。
その後の研究では、人工エージェントが収束に向けて繰り返し実施される以前のヒトの治験を反映するように設計されている。
その結果、ほとんどのエージェントが学んだ因果関係が、内部の状態と、人間に報告されたものと一致するための探索の間にあることが示された。
論文 参考訳(メタデータ) (2023-02-13T18:20:44Z) - Investigating the Potential of Artificial Intelligence Powered
Interfaces to Support Different Types of Memory for People with Dementia [22.89233407347665]
もっとも難しい課題の1つは、認知症の患者のアクセシビリティの変動をサポートすることである。
我々は,認知症に関連する異なる種類のメモリのインタフェースをパーソナライズするためのAIベースのシステム設計の今後の方向性を示す。
論文 参考訳(メタデータ) (2022-11-19T17:31:45Z) - The Influence of Explainable Artificial Intelligence: Nudging Behaviour
or Boosting Capability? [0.456877715768796]
本稿では、説明可能な人工知能(XAI)が人々の行動や認知にどのように影響するかを分析するための理論的説明とそれに対応するパラダイムを提供することを目的とする。
行動変化のテクニックを考えるための2つの注目すべきフレームワークは、行動に影響を与えることを目的としたナッジ(nudge)と、能力を育むことを目的としたブースト( boosts)である。
これはXAIの影響を測定する方法の概要であり、最適な、安全で倫理的な人間とAIのコラボレーションのためにXAIを理解する利点を論じている。
論文 参考訳(メタデータ) (2022-10-05T17:28:52Z) - Adaptive cognitive fit: Artificial intelligence augmented management of
information facets and representations [62.997667081978825]
ビッグデータ技術と人工知能(AI)応用の爆発的な成長は、情報ファセットの普及に繋がった。
等角性や正確性などの情報フェートは、情報に対する人間の認識を支配的かつ著しく左右する。
認知の限界を克服するために情報表現を適応できる人工知能技術が必要であることを示唆する。
論文 参考訳(メタデータ) (2022-04-25T02:47:25Z) - Building Bridges: Generative Artworks to Explore AI Ethics [56.058588908294446]
近年,人工知能(AI)技術が社会に与える影響の理解と緩和に重点が置かれている。
倫理的AIシステムの設計における重要な課題は、AIパイプラインには複数の利害関係者があり、それぞれがそれぞれ独自の制約と関心を持っていることだ。
このポジションペーパーは、生成的アートワークが、アクセス可能で強力な教育ツールとして機能することで、この役割を果たすことができる可能性のいくつかを概説する。
論文 参考訳(メタデータ) (2021-06-25T22:31:55Z) - Learning Emotional-Blinded Face Representations [77.7653702071127]
感情反応に関連する表情に盲目な2つの顔表現を提案する。
この作業は、個人データ保護に関する新たな国際規則によって動機付けられている。
論文 参考訳(メタデータ) (2020-09-18T09:24:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。