論文の概要: Diverse Perspectives on AI: Examining People's Acceptability and Reasoning of Possible AI Use Cases
- arxiv url: http://arxiv.org/abs/2502.07287v1
- Date: Tue, 11 Feb 2025 06:06:47 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-02-12 14:08:52.916489
- Title: Diverse Perspectives on AI: Examining People's Acceptability and Reasoning of Possible AI Use Cases
- Title(参考訳): AIに関するさまざまな視点:AIのユースケースに対する人々の受容性と推論について
- Authors: Jimin Mun, Wei Bin Au Yeong, Wesley Hanwen Deng, Jana Schaich Borg, Maarten Sap,
- Abstract要約: 我々は,人口統計学的に多様な参加者を対象に実施した調査を通じて,AI開発に関する人々の判断に影響を与える態度と理由について検討した。
私たちは10の異なるプロフェッショナル(Lawyer AIなど)と個人(Digital Medical Advice AIなど)のAIユースケースに焦点を当てています。
実証実験の結果,一般の否定的受容や個人に対する職業的利用の相違など,受容に影響を与える要因の数が明らかになった。
- 参考スコア(独自算出の注目度): 17.420096756296896
- License:
- Abstract: In recent years, there has been a growing recognition of the need to incorporate lay-people's input into the governance and acceptability assessment of AI usage. However, how and why people judge different AI use cases to be acceptable or unacceptable remains under-explored. In this work, we investigate the attitudes and reasons that influence people's judgments about AI's development via a survey administered to demographically diverse participants (N=197). We focus on ten distinct professional (e.g., Lawyer AI) and personal (e.g., Digital Medical Advice AI) AI use cases to understand how characteristics of the use cases and the participants' demographics affect acceptability. We explore the relationships between participants' judgments and their rationales such as reasoning approaches (cost-benefit reasoning vs. rule-based). Our empirical findings reveal number of factors that influence acceptance such as general negative acceptance and higher disagreement of professional usage over personal, significant influence of demographics factors such as gender, employment, and education as well as AI literacy level, and reasoning patterns such as rule-based reasoning being used more when use case is unacceptable. Based on these findings, we discuss the key implications for soliciting acceptability and reasoning of AI use cases to collaboratively build consensus. Finally, we shed light on how future FAccT researchers and practitioners can better incorporate diverse perspectives from lay people to better develop AI that aligns with public expectations and needs.
- Abstract(参考訳): 近年、AI利用のガバナンスと受け入れ可能性評価に一般人の入力を組み込む必要があるという認識が高まっている。
しかし、人々が異なるAIのユースケースを容認または容認できないとどのように判断するかは、まだ解明されていない。
本研究では,人口統計学的に多様な参加者を対象に実施した調査(N=197)を通じて,AI開発に関する人々の判断に影響を及ぼす態度と理由について考察する。
私たちは、ユースケースの特徴と参加者の人口統計が受容性にどのように影響するかを理解するために、10の異なるプロフェッショナル(Lawyer AIなど)と個人(Digital Medical Advice AIなど)のAIユースケースに焦点を当てています。
我々は,参加者の判断と推論アプローチ(費用対効果推論とルールベース)などの理性との関係を考察する。
実証実験の結果,一般の否定的受容や個人の職業的利用に対する不一致などの受容に影響を及ぼす要因の数,性別,雇用,教育などの人口動態要因,AIリテラシーレベル,そしてユースケースが受け入れられない場合にはルールに基づく推論などの推論パターンが顕著であることがわかった。
これらの知見に基づいて、AI利用事例の受容可能性と推論を誘致し、コンセンサスを協調的に構築する上での鍵となる意味について論じる。
最後に、FAccTの研究者や実践者たちが、一般の期待やニーズに合わせたAIを開発するために、素人からさまざまな視点を取り入れる方法について、光を当てた。
関連論文リスト
- SoK: On the Offensive Potential of AI [14.072632973726906]
ますます多くの証拠が、AIが攻撃目的にも使われていることを示している。
現存する研究は、AIの攻撃的可能性の全体像を描けなかった。
論文 参考訳(メタデータ) (2024-12-24T14:02:44Z) - Perceptions of Discriminatory Decisions of Artificial Intelligence: Unpacking the Role of Individual Characteristics [0.0]
個人差(デジタル自己効力性、技術的知識、平等への信念、政治的イデオロギー)は、AIの成果に対する認識と関連している。
デジタル自己効力と技術的知識は、AIに対する態度と肯定的に関連している。
リベラルイデオロギーは、結果信頼、より否定的な感情、より大きな懐疑主義と負の関連がある。
論文 参考訳(メタデータ) (2024-10-17T06:18:26Z) - Towards Human-AI Deliberation: Design and Evaluation of LLM-Empowered Deliberative AI for AI-Assisted Decision-Making [47.33241893184721]
AIによる意思決定において、人間はしばしばAIの提案を受動的にレビューし、それを受け入れるか拒否するかを決定する。
意思決定における人間-AIの意見の対立に関する議論と人間のリフレクションを促進する新しい枠組みであるHuman-AI Deliberationを提案する。
人間の熟考の理論に基づいて、この枠組みは人間とAIを次元レベルの意見の引用、熟考的議論、意思決定の更新に携わる。
論文 参考訳(メタデータ) (2024-03-25T14:34:06Z) - Particip-AI: A Democratic Surveying Framework for Anticipating Future AI Use Cases, Harms and Benefits [54.648819983899614]
汎用AIは、一般大衆がAIを使用してそのパワーを利用するための障壁を下げたようだ。
本稿では,AI利用事例とその影響を推測し,評価するためのフレームワークであるPartICIP-AIを紹介する。
論文 参考訳(メタデータ) (2024-03-21T19:12:37Z) - Why not both? Complementing explanations with uncertainty, and the role
of self-confidence in Human-AI collaboration [12.47276164048813]
本研究では,不確実性評価とモデル説明がモデルに対するユーザの信頼,理解,信頼にどのように影響するかを明らかにするための実証的研究を行う。
また,合意と切り換え率に基づいて,後者が分析結果を歪める可能性についても論じる。
論文 参考訳(メタデータ) (2023-04-27T12:24:33Z) - Fairness in AI and Its Long-Term Implications on Society [68.8204255655161]
AIフェアネスを詳しく見て、AIフェアネスの欠如が、時間の経過とともにバイアスの深化につながるかを分析します。
偏りのあるモデルが特定のグループに対してよりネガティブな現実的な結果をもたらすかについて議論する。
問題が続くと、他のリスクとの相互作用によって強化され、社会不安という形で社会に深刻な影響を及ぼす可能性がある。
論文 参考訳(メタデータ) (2023-04-16T11:22:59Z) - Metaethical Perspectives on 'Benchmarking' AI Ethics [81.65697003067841]
ベンチマークは、人工知能(AI)研究の技術的進歩を測定するための基盤とみられている。
AIの顕著な研究領域は倫理であり、現在、ベンチマークのセットも、AIシステムの「倫理性」を測定する一般的な方法もない。
我々は、現在と将来のAIシステムのアクションを考えるとき、倫理よりも「価値」について話す方が理にかなっていると論じる。
論文 参考訳(メタデータ) (2022-04-11T14:36:39Z) - Building Bridges: Generative Artworks to Explore AI Ethics [56.058588908294446]
近年,人工知能(AI)技術が社会に与える影響の理解と緩和に重点が置かれている。
倫理的AIシステムの設計における重要な課題は、AIパイプラインには複数の利害関係者があり、それぞれがそれぞれ独自の制約と関心を持っていることだ。
このポジションペーパーは、生成的アートワークが、アクセス可能で強力な教育ツールとして機能することで、この役割を果たすことができる可能性のいくつかを概説する。
論文 参考訳(メタデータ) (2021-06-25T22:31:55Z) - To Trust or to Think: Cognitive Forcing Functions Can Reduce
Overreliance on AI in AI-assisted Decision-making [4.877174544937129]
AIによる意思決定支援ツールによってサポートされる人々は、しばしばAIに過度に依存します。
AIの決定に説明を加えることは、過度な信頼を減らすものではありません。
我々の研究は、人間の認知モチベーションが説明可能なAIソリューションの有効性を損なうことを示唆している。
論文 参考訳(メタデータ) (2021-02-19T00:38:53Z) - Effect of Confidence and Explanation on Accuracy and Trust Calibration
in AI-Assisted Decision Making [53.62514158534574]
ケース固有のモデル情報を明らかにする特徴が、信頼度を調整し、人間とAIのジョイントパフォーマンスを向上させることができるかどうかを検討する。
信頼スコアは、AIモデルに対する人々の信頼を校正するのに役立ちますが、信頼の校正だけでは、AI支援による意思決定を改善するには不十分です。
論文 参考訳(メタデータ) (2020-01-07T15:33:48Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。