論文の概要: AI-washing: The Asymmetric Effects of Its Two Types on Consumer Moral Judgments
- arxiv url: http://arxiv.org/abs/2507.04352v1
- Date: Sun, 06 Jul 2025 11:28:45 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-08 15:46:35.134906
- Title: AI-washing: The Asymmetric Effects of Its Two Types on Consumer Moral Judgments
- Title(参考訳): AI洗浄:2種類の非対称効果が消費者モラル判断に及ぼす影響
- Authors: Greg Nyilasy, Harsha Gangadharbatla,
- Abstract要約: この記事では、企業の実際のAI使用量を過大評価(偽りの誇張)または過小評価(偽りの否定)として、AI洗浄を紹介します。
2x2実験では、これらの虚偽の主張が消費者の態度や購入意図にどのように影響するかを検討した。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: As AI hype continues to grow, organizations face pressure to broadcast or downplay purported AI initiatives - even when contrary to truth. This paper introduces AI-washing as overstating (deceptive boasting) or understating (deceptive denial) a company's real AI usage. A 2x2 experiment (N = 401) examines how these false claims affect consumer attitudes and purchase intentions. Results reveal a pronounced asymmetry: deceptive denial evokes more negative moral judgments than honest negation, while deceptive boasting has no effects. We show that perceived betrayal mediates these outcomes. By clarifying how AI-washing erodes trust, the study highlights clear ethical implications for policymakers, marketers, and researchers striving for transparency.
- Abstract(参考訳): AIの誇大宣伝が拡大するにつれ、組織は、真実に反しても、報告されたAIイニシアチブを放送またはダウンプレイする圧力に直面している。
この記事では、企業の実際のAI使用量を過大評価(偽りの誇張)または過小評価(偽りの否定)として、AI洗浄を紹介します。
2x2実験(N = 401)では、これらの虚偽の主張が消費者の態度や購入意図にどのように影響するかを調べる。
偽りの否定は、正直な否定よりも否定的な道徳的判断を引き起こすが、偽りの誇張には効果がない。
裏切られたという認識がこれらの成果を媒介していることが示される。
この研究は、AI洗浄がいかに信頼を損なうかを明らかにすることで、政策立案者、マーケッター、そして透明性を求める研究者にとっての明確な倫理的意味を強調している。
関連論文リスト
- The AI Double Standard: Humans Judge All AIs for the Actions of One [0.0]
AIが増殖するにつれて、あるAIに対する道徳的な態度が他のAIに対する態度に流出することで、知覚が絡まってしまう可能性がある。
我々は、2つの事前登録された実験において、AIや人間のエージェントの一見有害で不道徳な行動が、他のAIや人間に対する態度にどのように影響するかをテストした。
論文 参考訳(メタデータ) (2024-12-08T19:26:52Z) - How Performance Pressure Influences AI-Assisted Decision Making [57.53469908423318]
我々は、プレッシャーと説明可能なAI(XAI)技術がAIアドバイステイク行動とどのように相互作用するかを示す。
我々の結果は、圧力とXAIの異なる組み合わせで複雑な相互作用効果を示し、AIアドバイスの行動を改善するか、悪化させるかのどちらかを示す。
論文 参考訳(メタデータ) (2024-10-21T22:39:52Z) - Human Bias in the Face of AI: The Role of Human Judgement in AI Generated Text Evaluation [48.70176791365903]
本研究では、偏見がAIと人為的コンテンツの知覚をどう形成するかを考察する。
ラベル付きおよびラベルなしコンテンツに対するヒトのラッカーの反応について検討した。
論文 参考訳(メタデータ) (2024-09-29T04:31:45Z) - The Impact of Generative Artificial Intelligence on Market Equilibrium: Evidence from a Natural Experiment [19.963531237647103]
生成人工知能(AI)は、人間の出力に似た創造的なコンテンツをより効率よく、コストを削減できる能力を示す。
本稿では,中国の主要なアートアウトソーシングプラットフォームにおいて,生成AIが市場均衡に与える影響を実証的に検討する。
我々の分析によると、生成AIの出現は平均価格を64%引き下げる結果となったが、同時に注文量が121%増加し、全体の売上が56%増加した。
論文 参考訳(メタデータ) (2023-11-13T04:31:53Z) - Fairness in AI and Its Long-Term Implications on Society [68.8204255655161]
AIフェアネスを詳しく見て、AIフェアネスの欠如が、時間の経過とともにバイアスの深化につながるかを分析します。
偏りのあるモデルが特定のグループに対してよりネガティブな現実的な結果をもたらすかについて議論する。
問題が続くと、他のリスクとの相互作用によって強化され、社会不安という形で社会に深刻な影響を及ぼす可能性がある。
論文 参考訳(メタデータ) (2023-04-16T11:22:59Z) - The Who in XAI: How AI Background Shapes Perceptions of AI Explanations [61.49776160925216]
私たちは、2つの異なるグループ、つまりAIのバックグラウンドを持つ人々といない人たちの、異なるタイプのAI説明に対する理解について、混合手法による研究を行います。
その結果,(1) 両群は異なる理由から不合理な数に対する信頼を示し,(2) それぞれの群は意図した設計以上の異なる説明に価値を見出した。
論文 参考訳(メタデータ) (2021-07-28T17:32:04Z) - Trustworthy AI: A Computational Perspective [54.80482955088197]
我々は,信頼に値するAIを実現する上で最も重要な6つの要素,(i)安全とロバスト性,(ii)非差別と公正,(iii)説明可能性,(iv)プライバシー,(v)説明可能性と監査性,(vi)環境ウェルビーイングに焦点をあてる。
各次元について、分類学に基づく最近の関連技術について概観し、実世界のシステムにおけるそれらの応用を概説する。
論文 参考訳(メタデータ) (2021-07-12T14:21:46Z) - Zombies in the Loop? Humans Trust Untrustworthy AI-Advisors for Ethical
Decisions [0.0]
AIを利用したアルゴリズムによる倫理的アドバイスは、ユーザーがトレーニングデータについて何も知らない場合でも信頼されている。
我々は、デジタルリテラシーをAIの責任ある使用を確実にするための潜在的対策として提案する。
論文 参考訳(メタデータ) (2021-06-30T15:19:20Z) - The Threat of Offensive AI to Organizations [52.011307264694665]
この調査は、組織に対する攻撃的なAIの脅威を調査する。
まず、AIが敵の方法、戦略、目標、および全体的な攻撃モデルをどのように変えるかについて議論する。
そして、文献レビューを通じて、敵が攻撃を強化するために使用できる33の攻撃的AI能力を特定します。
論文 参考訳(メタデータ) (2021-06-30T01:03:28Z) - The corruptive force of AI-generated advice [0.0]
AIによるアドバイスが人を傷つけるかどうかをテストします。
また、AIの存在に関する透明性が潜在的な害を軽減するかどうかをテストします。
結果、AIの腐敗力は人間と同じくらい強いことが判明」
論文 参考訳(メタデータ) (2021-02-15T13:15:12Z) - The Managerial Effects of Algorithmic Fairness Activism [1.942960499551692]
AIフェアネスアクティビズムで使用される議論に対して、ビジネス上の意思決定者がランダムに公開します。
アルゴリズムバイアスマネージャがAIを捨てて人間による手動によるレビューを行うのは不可能である、という主張。
ステータスクオ比較の強調は、反対の効果をもたらす。
論文 参考訳(メタデータ) (2020-12-04T04:11:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。