論文の概要: Do Ethical AI Principles Matter to Users? A Large-Scale Analysis of User Sentiment and Satisfaction
- arxiv url: http://arxiv.org/abs/2508.05913v1
- Date: Fri, 08 Aug 2025 00:27:50 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-11 20:39:06.037434
- Title: Do Ethical AI Principles Matter to Users? A Large-Scale Analysis of User Sentiment and Satisfaction
- Title(参考訳): 倫理的AI原則はユーザにとって重要か? ユーザ感と満足度に関する大規模分析
- Authors: Stefan Pasch, Min Chul Cha,
- Abstract要約: 本稿では,倫理的AIとユーザ満足度との関係を,G2から10万以上のAI製品のユーザレビューを分析して検討する。
トランスフォーマーベースの言語モデルを用いて、信頼できるAIのためのEU倫理ガイドラインによって定義された7つの倫理的次元の感情を測定する。
この結果は,ユーザの視点から倫理的AI設計の重要性を強調し,ユーザの役割や製品タイプ間の文脈的差異を考慮に入れる必要性を浮き彫りにしている。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: As AI systems become increasingly embedded in organizational workflows and consumer applications, ethical principles such as fairness, transparency, and robustness have been widely endorsed in policy and industry guidelines. However, there is still scarce empirical evidence on whether these principles are recognized, valued, or impactful from the perspective of users. This study investigates the link between ethical AI and user satisfaction by analyzing over 100,000 user reviews of AI products from G2. Using transformer-based language models, we measure sentiment across seven ethical dimensions defined by the EU Ethics Guidelines for Trustworthy AI. Our findings show that all seven dimensions are positively associated with user satisfaction. Yet, this relationship varies systematically across user and product types. Technical users and reviewers of AI development platforms more frequently discuss system-level concerns (e.g., transparency, data governance), while non-technical users and reviewers of end-user applications emphasize human-centric dimensions (e.g., human agency, societal well-being). Moreover, the association between ethical AI and user satisfaction is significantly stronger for non-technical users and end-user applications across all dimensions. Our results highlight the importance of ethical AI design from users' perspectives and underscore the need to account for contextual differences across user roles and product types.
- Abstract(参考訳): AIシステムがますます組織ワークフローやコンシューマーアプリケーションに埋め込まれていくにつれ、公正性、透明性、堅牢性といった倫理的原則は、ポリシーや業界ガイドラインで広く支持されている。
しかし、これらの原則がユーザの観点から認識され、評価され、あるいは影響があるかどうかについては、まだ実証的な証拠は残っていない。
本稿では,倫理的AIとユーザ満足度との関係を,G2から10万以上のAI製品のユーザレビューを分析して検討する。
トランスフォーマーベースの言語モデルを用いて、信頼できるAIのためのEU倫理ガイドラインによって定義された7つの倫理的次元の感情を測定する。
以上の結果から,7次元がユーザ満足度と正の相関があることが示唆された。
しかし、この関係はユーザータイプと製品タイプによって体系的に異なる。
AI開発プラットフォームの技術的ユーザとレビュアーは、システムレベルの懸念(透明性、データガバナンスなど)をより頻繁に議論する一方、エンドユーザアプリケーションの非技術的ユーザとレビュアーは、人間中心の次元(例えば、人事、社会的幸福)を強調する。
さらに、倫理的AIとユーザの満足度との関係は、技術的でないユーザや、あらゆる分野のエンドユーザアプリケーションにとって、かなり強くなっている。
この結果は,ユーザの視点から倫理的AI設計の重要性を強調し,ユーザの役割や製品タイプ間の文脈的差異を考慮に入れる必要性を浮き彫りにしている。
関連論文リスト
- Human-AI Interaction and User Satisfaction: Empirical Evidence from Online Reviews of AI Products [0.0]
この研究は、ビジネスソフトウェアとサービスのための主要なレビュープラットフォームであるG2から、AI関連製品の10万以上のユーザレビューを分析します。
私たちは7つの中核HAI次元を特定し、レビューの中でそのカバレッジと感情を調べます。
HAIの4次元に対する感情は、適応性、カスタマイズ性、エラー回復、セキュリティが全体的なユーザ満足度に肯定的な関係があることに気付きました。
論文 参考訳(メタデータ) (2025-03-23T06:16:49Z) - Survey of User Interface Design and Interaction Techniques in Generative AI Applications [79.55963742878684]
我々は,デザイナやディベロッパの参照として使用できる,さまざまなユーザインタラクションパターンのコンペレーションを作ることを目指している。
また、生成AIアプリケーションの設計についてもっと学ぼうとする人たちの参入障壁を低くしようと努力しています。
論文 参考訳(メタデータ) (2024-10-28T23:10:06Z) - The Ethics of Advanced AI Assistants [53.89899371095332]
本稿では,高度AIアシスタントがもたらす倫理的・社会的リスクについて論じる。
我々は、高度なAIアシスタントを自然言語インタフェースを持つ人工知能エージェントとして定義し、ユーザに代わってアクションのシーケンスを計画し実行することを目的としている。
先進的なアシスタントの社会規模での展開を考察し、協力、株式とアクセス、誤情報、経済的影響、環境、先進的なAIアシスタントの評価方法に焦点をあてる。
論文 参考訳(メタデータ) (2024-04-24T23:18:46Z) - Unpacking Human-AI Interaction in Safety-Critical Industries: A Systematic Literature Review [48.052150453947405]
文献でHAIIを記述するために1つの用語は使われていない。
HAIIは、ユーザ関連の主観的指標で最もよく測定される。
研究者と開発者はHAIIの用語を体系化する必要がある。
論文 参考訳(メタデータ) (2023-10-05T08:57:17Z) - Requirements for Explainability and Acceptance of Artificial
Intelligence in Collaborative Work [0.0]
本稿では,AIの説明可能性と受容の要件について考察する。
その結果,2つの主要なグループが,モデルの内部操作に関する情報を必要とする開発者であることが示唆された。
AIシステムの受容は、システムの機能や性能、プライバシ、倫理的考慮事項に関する情報に依存する。
論文 参考訳(メタデータ) (2023-06-27T11:36:07Z) - A Systematic Literature Review of User Trust in AI-Enabled Systems: An
HCI Perspective [0.0]
人工知能(AI)のユーザ信頼は、採用を促進する重要な要素として、ますます認識され、証明されてきている。
本総説は, ユーザ信頼の定義, 影響要因, 測定方法の概要を, 実証研究23件から明らかにすることを目的としている。
論文 参考訳(メタデータ) (2023-04-18T07:58:09Z) - How Different Groups Prioritize Ethical Values for Responsible AI [75.40051547428592]
民間企業、公共セクター組織、学術団体は、責任あるAI技術にとって重要であると考える倫理的価値観を概説している。
彼らのレコメンデーションは中央値のセットに収束するが、より代表的な大衆が、彼らが交流し、影響を受ける可能性のあるAI技術にとって重要な価値についてはほとんど知られていない。
我々は、個人が3つのグループにまたがる責任あるAIの価値観をどのように認識し、優先順位付けしているかを調査した。
論文 参考訳(メタデータ) (2022-05-16T14:39:37Z) - Metaethical Perspectives on 'Benchmarking' AI Ethics [81.65697003067841]
ベンチマークは、人工知能(AI)研究の技術的進歩を測定するための基盤とみられている。
AIの顕著な研究領域は倫理であり、現在、ベンチマークのセットも、AIシステムの「倫理性」を測定する一般的な方法もない。
我々は、現在と将来のAIシステムのアクションを考えるとき、倫理よりも「価値」について話す方が理にかなっていると論じる。
論文 参考訳(メタデータ) (2022-04-11T14:36:39Z) - AI-Ethics by Design. Evaluating Public Perception on the Importance of
Ethical Design Principles of AI [0.0]
倫理的原則が相互に重み付けされているかを検討する。
倫理的に設計されたシステムに対する異なる選好モデルが、ドイツ国民の間に存在していることを示す。
論文 参考訳(メタデータ) (2021-06-01T09:01:14Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。