論文の概要: The Impact of Transparency in AI Systems on Users' Data-Sharing Intentions: A Scenario-Based Experiment
- arxiv url: http://arxiv.org/abs/2502.20243v1
- Date: Thu, 27 Feb 2025 16:28:09 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-02-28 14:55:52.499954
- Title: The Impact of Transparency in AI Systems on Users' Data-Sharing Intentions: A Scenario-Based Experiment
- Title(参考訳): AIシステムにおける透明性がユーザのデータ共有意図に及ぼす影響:シナリオに基づく実験
- Authors: Julian Rosenberger, Sophie Kuhlemann, Verena Tiefenbeck, Mathias Kraus, Patrick Zschech,
- Abstract要約: 透明かつ非透明なデータ処理エンティティがデータ共有の意図にどのように影響するかを検討した。
驚いたことに、我々の結果は、エンティティ間でデータを共有したいという意志に有意な差は示さなかった。
我々は、特に透明なAI状態において、AIに対する信頼の一般的な態度が、有意なポジティブな影響があることを発見した。
- 参考スコア(独自算出の注目度): 4.20435795138041
- License:
- Abstract: Artificial Intelligence (AI) systems are frequently employed in online services to provide personalized experiences to users based on large collections of data. However, AI systems can be designed in different ways, with black-box AI systems appearing as complex data-processing engines and white-box AI systems appearing as fully transparent data-processors. As such, it is reasonable to assume that these different design choices also affect user perception and thus their willingness to share data. To this end, we conducted a pre-registered, scenario-based online experiment with 240 participants and investigated how transparent and non-transparent data-processing entities influenced data-sharing intentions. Surprisingly, our results revealed no significant difference in willingness to share data across entities, challenging the notion that transparency increases data-sharing willingness. Furthermore, we found that a general attitude of trust towards AI has a significant positive influence, especially in the transparent AI condition, whereas privacy concerns did not significantly affect data-sharing decisions.
- Abstract(参考訳): 人工知能(AI)システムは、大規模なデータ収集に基づいてユーザに対してパーソナライズされたエクスペリエンスを提供するために、オンラインサービスで頻繁に使用される。
しかし、AIシステムはさまざまな方法で設計でき、ブラックボックスAIシステムは複雑なデータ処理エンジンとして、ホワイトボックスAIシステムは完全な透明なデータプロセッサとして現れる。
したがって、これらの異なる設計選択がユーザーの認識やデータ共有意欲にも影響を及ぼすと仮定することは合理的である。
そこで我々は,240人の参加者を対象に,事前登録されたシナリオベースのオンライン実験を行い,透明で透明でないデータ処理エンティティがデータ共有の意図にどのように影響するかを検討した。
驚いたことに、私たちの結果は、エンティティ間でデータを共有する意思に有意な差は示さず、透明性がデータの共有意欲を高めるという概念に挑戦しました。
さらに、AIに対する信頼に対する一般的な態度は、特に透明なAI状態において大きな影響を与えるが、プライバシの懸念はデータ共有の決定に大きく影響しないことが判明した。
関連論文リスト
- Ethical AI in Retail: Consumer Privacy and Fairness [0.0]
小売業における人工知能(AI)の採用は、業界を大きく変革させ、よりパーソナライズされたサービスと効率的な運用を可能にした。
しかし、AI技術の急速な実装は、特に消費者プライバシと公正性に関する倫理的懸念を提起する。
本研究の目的は、小売業におけるAIアプリケーションの倫理的課題を分析し、競争力を維持しながらAI技術を倫理的に実装する方法を探究し、倫理的AIプラクティスに関する推奨を提供することである。
論文 参考訳(メタデータ) (2024-10-20T12:00:14Z) - AI data transparency: an exploration through the lens of AI incidents [2.255682336735152]
本研究は、AIシステム内のデータプラクティスに関する公開ドキュメントが公衆の関心を喚起する状況について調査する。
我々は、AIシステムの多様性を考慮に入れた、AIデータの透明性を監視する体系的な方法を開発する必要性を強調します。
論文 参考訳(メタデータ) (2024-09-05T07:23:30Z) - Insights from an experiment crowdsourcing data from thousands of US Amazon users: The importance of transparency, money, and data use [6.794366017852433]
本稿は、米国5000人以上のユーザーから5年間にわたる、アクセス不能なAmazon購入履歴をクラウドソーシングする革新的なアプローチを共有する。
我々は参加者の同意を優先し、実験的な研究デザインを含むデータ収集ツールを開発した。
実験結果(N=6325)は、金銭的インセンティブと透明性の両方がデータ共有を大幅に増加させることを示している。
論文 参考訳(メタデータ) (2024-04-19T20:45:19Z) - Through the Looking-Glass: Transparency Implications and Challenges in Enterprise AI Knowledge Systems [3.9143193313607085]
本稿では,AI知識システムにおける透明性要件と影響のリフレクティブ分析について述べる。
私たちは透明性を、さまざまな見方を形作る上で重要な仲介者として定式化しています。
我々は,AI知識システムの価値を実現するために必要な3つの透明性次元を同定する。
論文 参考訳(メタデータ) (2024-01-17T18:47:30Z) - Towards Generalizable Data Protection With Transferable Unlearnable
Examples [50.628011208660645]
本稿では、転送不可能な例を生成することによって、新しい一般化可能なデータ保護手法を提案する。
私たちの知る限りでは、これはデータ分散の観点からデータのプライバシを調べる最初のソリューションです。
論文 参考訳(メタデータ) (2023-05-18T04:17:01Z) - Contributing to Accessibility Datasets: Reflections on Sharing Study
Data by Blind People [14.625384963263327]
13人の盲目の被験者がデータ収集活動に従事している2つの研究結果を示す。
リスク・ベネフィットのトレードオフを評価する際に、異なる要因が被験者の学習データ共有意欲にどのような影響を及ぼすかを確認する。
大多数は、技術改善のためにデータの共有をサポートしますが、商用利用、関連するメタデータ、およびデータの影響に関する透明性の欠如に対する懸念を表明しています。
論文 参考訳(メタデータ) (2023-03-09T00:42:18Z) - Human-Centric Multimodal Machine Learning: Recent Advances and Testbed
on AI-based Recruitment [66.91538273487379]
人間中心のアプローチでAIアプリケーションを開発する必要性には、ある程度のコンセンサスがある。
i)ユーティリティと社会的善、(ii)プライバシとデータ所有、(iii)透明性と説明責任、(iv)AIによる意思決定プロセスの公正性。
異種情報ソースに基づく現在のマルチモーダルアルゴリズムは、データ中の機密要素や内部バイアスによってどのように影響を受けるかを検討する。
論文 参考訳(メタデータ) (2023-02-13T16:44:44Z) - Representative & Fair Synthetic Data [68.8204255655161]
公平性制約を自己監督学習プロセスに組み込むためのフレームワークを提示する。
私たちはuci成人国勢調査データセットの代表者および公正版を作成します。
我々は、代表的かつ公正な合成データを将来有望なビルディングブロックとみなし、歴史的世界ではなく、私たちが生きようとしている世界についてアルゴリズムを教える。
論文 参考訳(メタデータ) (2021-04-07T09:19:46Z) - Trustworthy Transparency by Design [57.67333075002697]
本稿では,ユーザ信頼とエクスペリエンスに関する研究を取り入れた,ソフトウェア設計のための透明性フレームワークを提案する。
私たちのフレームワークは、その設計に透明性を取り入れたソフトウェアの開発を可能にします。
論文 参考訳(メタデータ) (2021-03-19T12:34:01Z) - Trustworthy AI [75.99046162669997]
入力データの小さな敵対的変化への脆さ、決定の説明能力、トレーニングデータのバイアスに対処する能力は、最も顕著な制限である。
我々は,AIシステムに対するユーザおよび公的な信頼を高める上での6つの重要な問題に対処するために,信頼に値するAIに関するチュートリアルを提案する。
論文 参考訳(メタデータ) (2020-11-02T20:04:18Z) - Bias in Multimodal AI: Testbed for Fair Automatic Recruitment [73.85525896663371]
異種情報ソースに基づく現在のマルチモーダルアルゴリズムは、データ中の機密要素や内部バイアスによってどのように影響を受けるかを検討する。
我々は、性別や人種の偏りを意識的に評価したマルチモーダルな合成プロファイルを用いて、自動求人アルゴリズムを訓練する。
我々の方法論と結果は、一般により公平なAIベースのツール、特により公平な自動採用システムを生成する方法を示している。
論文 参考訳(メタデータ) (2020-04-15T15:58:05Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。