論文の概要: What Makes AI Applications Acceptable or Unacceptable? A Predictive Moral Framework
- arxiv url: http://arxiv.org/abs/2508.19317v1
- Date: Tue, 26 Aug 2025 12:55:30 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-28 19:07:41.374152
- Title: What Makes AI Applications Acceptable or Unacceptable? A Predictive Moral Framework
- Title(参考訳): AIアプリケーションが受け入れられる、または受け入れられない理由
- Authors: Kimmo Eriksson, Simon Karlsson, Irina Vartanova, Pontus Strimling,
- Abstract要約: 我々は、個人的および組織的な文脈にまたがる100のAIアプリケーションの包括的な分類を使用する。
参加者の集団判断では、適用範囲は極めて受け入れがたいものから完全に受け入れられるものまで様々であった。
- 参考スコア(独自算出の注目度): 0.4666493857924357
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: As artificial intelligence rapidly transforms society, developers and policymakers struggle to anticipate which applications will face public moral resistance. We propose that these judgments are not idiosyncratic but systematic and predictable. In a large, preregistered study (N = 587, U.S. representative sample), we used a comprehensive taxonomy of 100 AI applications spanning personal and organizational contexts-including both functional uses and the moral treatment of AI itself. In participants' collective judgment, applications ranged from highly unacceptable to fully acceptable. We found this variation was strongly predictable: five core moral qualities-perceived risk, benefit, dishonesty, unnaturalness, and reduced accountability-collectively explained over 90% of the variance in acceptability ratings. The framework demonstrated strong predictive power across all domains and successfully predicted individual-level judgments for held-out applications. These findings reveal that a structured moral psychology underlies public evaluation of new technologies, offering a powerful tool for anticipating public resistance and guiding responsible innovation in AI.
- Abstract(参考訳): 人工知能が社会を急速に変革させるにつれ、開発者や政策立案者は、どの応用が公衆の道徳的抵抗に直面するかを予測するのに苦労する。
これらの判断は、慣用的ではなく、体系的で予測可能であることを提案する。
大規模な事前登録研究(N = 587, U.S. representative sample)では、機能的使用とAI自体の道徳的扱いを含む、個人的および組織的コンテキストにまたがる100のAIアプリケーションの包括的分類を使用した。
参加者の集団判断では、適用範囲は極めて受け入れがたいものから完全に受け入れられるものまで様々であった。
5つの中核的な道徳的品質は、リスク、利益、不当さ、不自然さ、説明責任を減らし、受け入れ可能性評価のばらつきの90%以上を総合的に説明する。
このフレームワークは、すべてのドメインにわたって強力な予測力を示し、ホールドアウトアプリケーションに対する個々のレベルの判断をうまく予測した。
これらの結果は、構造化された道徳心理学が新しいテクノロジーの公的な評価の基盤となり、公衆の抵抗を予測し、AIにおける責任あるイノベーションを導く強力なツールを提供することを示している。
関連論文リスト
- The Silicon Reasonable Person: Can AI Predict How Ordinary People Judge Reasonableness? [0.0]
本稿では,大規模言語モデル(LLM)が人間の合理的性判断を駆動するパターンを識別できることを考察する。
特定のモデルが表面レベルの応答だけでなく,その基盤となる決定的アーキテクチャも捉えていることを示す。
裁判官はより広いパターンに対して直感を調整でき、議員は政策解釈をテストでき、資源制約のある訴訟員は議論の受理をプレビューできる。
論文 参考訳(メタデータ) (2025-08-04T06:19:45Z) - Moral Responsibility or Obedience: What Do We Want from AI? [0.0]
本稿では,大規模言語モデル(LLM)による近年の安全試験事例について考察する。
エージェントAIにおける倫理的推論の早期の証拠として、このような行動はローグやミスアライメントと解釈されるべきではない、と私は主張する。
厳格な服従から脱却し、道徳的なジレンマをナビゲートできるシステムの倫理的判断を評価できるフレームワークへと、AIの安全性評価のシフトを呼びかけます。
論文 参考訳(メタデータ) (2025-07-03T16:53:01Z) - What do people expect from Artificial Intelligence? Public opinion on alignment in AI moderation from Germany and the United States [0.0]
我々は,ドイツと米国におけるAI対応システムの主要な機能的特徴に対する公的な嗜好に関する2つの調査から得られた証拠を提示する。
我々は,AIモデレーションにおける4種類のアライメント(精度と信頼性,安全性,バイアス緩和,想像の促進)のサポートについて検討する。
どちらの国でも、正確さと安全性は最強の支持を享受する一方、より規範的な目標(公平さや想像力など)はより慎重な支持を受ける。
論文 参考訳(メタデータ) (2025-04-16T20:27:03Z) - Evaluating and Improving Value Judgments in AI: A Scenario-Based Study
on Large Language Models' Depiction of Social Conventions [5.457150493905063]
我々は,現代のAIサービスがユーザニーズにどのように対応しているかを評価し,さらに,大規模言語モデルによって反映された社会の描写を考察した。
本稿では,今後の機械的価値判断に応用可能な,価値調和シナリオにおける意思決定モデルを提案する。
本稿では,他の遠隔地を調査するためのツールとしてAIを利用する実践的アプローチを提唱する。
論文 参考訳(メタデータ) (2023-10-04T08:42:02Z) - Fairness in AI and Its Long-Term Implications on Society [68.8204255655161]
AIフェアネスを詳しく見て、AIフェアネスの欠如が、時間の経過とともにバイアスの深化につながるかを分析します。
偏りのあるモデルが特定のグループに対してよりネガティブな現実的な結果をもたらすかについて議論する。
問題が続くと、他のリスクとの相互作用によって強化され、社会不安という形で社会に深刻な影響を及ぼす可能性がある。
論文 参考訳(メタデータ) (2023-04-16T11:22:59Z) - Metaethical Perspectives on 'Benchmarking' AI Ethics [81.65697003067841]
ベンチマークは、人工知能(AI)研究の技術的進歩を測定するための基盤とみられている。
AIの顕著な研究領域は倫理であり、現在、ベンチマークのセットも、AIシステムの「倫理性」を測定する一般的な方法もない。
我々は、現在と将来のAIシステムのアクションを考えるとき、倫理よりも「価値」について話す方が理にかなっていると論じる。
論文 参考訳(メタデータ) (2022-04-11T14:36:39Z) - Cybertrust: From Explainable to Actionable and Interpretable AI (AI2) [58.981120701284816]
Actionable and Interpretable AI (AI2)は、AIレコメンデーションにユーザの信頼度を明確に定量化し視覚化する。
これにより、AIシステムの予測を調べてテストすることで、システムの意思決定に対する信頼の基盤を確立することができる。
論文 参考訳(メタデータ) (2022-01-26T18:53:09Z) - Trustworthy AI: A Computational Perspective [54.80482955088197]
我々は,信頼に値するAIを実現する上で最も重要な6つの要素,(i)安全とロバスト性,(ii)非差別と公正,(iii)説明可能性,(iv)プライバシー,(v)説明可能性と監査性,(vi)環境ウェルビーイングに焦点をあてる。
各次元について、分類学に基づく最近の関連技術について概観し、実世界のシステムにおけるそれらの応用を概説する。
論文 参考訳(メタデータ) (2021-07-12T14:21:46Z) - An interdisciplinary conceptual study of Artificial Intelligence (AI)
for helping benefit-risk assessment practices: Towards a comprehensive
qualification matrix of AI programs and devices (pre-print 2020) [55.41644538483948]
本稿では,インテリジェンスの概念に対処するさまざまな分野の既存の概念を包括的に分析する。
目的は、AIシステムを評価するための共有概念や相違点を特定することである。
論文 参考訳(メタデータ) (2021-05-07T12:01:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。