論文の概要: Surveys Considered Harmful? Reflecting on the Use of Surveys in AI Research, Development, and Governance
- arxiv url: http://arxiv.org/abs/2408.01458v1
- Date: Fri, 26 Jul 2024 22:10:49 GMT
- ステータス: 処理完了
- システム内更新日: 2024-08-19 04:59:02.209808
- Title: Surveys Considered Harmful? Reflecting on the Use of Surveys in AI Research, Development, and Governance
- Title(参考訳): 有害と判断された調査 : AI研究・開発・ガバナンスにおける調査の利用を振り返って
- Authors: Mohammmad Tahaei, Daricia Wilkinson, Alisa Frik, Michael Muller, Ruba Abu-Salma, Lauren Wilcox,
- Abstract要約: 私たちは、AIトピックに関する公開調査が、その設計における特定の西洋の知識、価値観、仮定に対して脆弱であることに気付きました。
我々は,参加の目標を達成するための調査の限界を認識するために,コミュニティに対する挑発や質問を蒸留する。
- 参考スコア(独自算出の注目度): 21.430179253600308
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Calls for engagement with the public in Artificial Intelligence (AI) research, development, and governance are increasing, leading to the use of surveys to capture people's values, perceptions, and experiences related to AI. In this paper, we critically examine the state of human participant surveys associated with these topics. Through both a reflexive analysis of a survey pilot spanning six countries and a systematic literature review of 44 papers featuring public surveys related to AI, we explore prominent perspectives and methodological nuances associated with surveys to date. We find that public surveys on AI topics are vulnerable to specific Western knowledge, values, and assumptions in their design, including in their positioning of ethical concepts and societal values, lack sufficient critical discourse surrounding deployment strategies, and demonstrate inconsistent forms of transparency in their reporting. Based on our findings, we distill provocations and heuristic questions for our community, to recognize the limitations of surveys for meeting the goals of engagement, and to cultivate shared principles to design, deploy, and interpret surveys cautiously and responsibly.
- Abstract(参考訳): 人工知能(AI)の研究、開発、ガバナンスにおける一般大衆との関わりを求める声が高まり、人々の価値観、認識、AIに関する経験を捉えるために調査が使用されるようになる。
本稿では,これらのトピックに関連する参加者調査の状況について批判的に検討する。
6か国にまたがる調査パイロットの反射的分析と、AIに関連する公的な調査を特徴とする44の論文の体系的な文献レビューを通じて、現在までの調査に関連する顕著な視点と方法論的ニュアンスについて検討する。
AIトピックに関する公開調査は、倫理的概念や社会的価値の位置づけ、デプロイメント戦略を取り巻く十分な批判的談話の欠如、レポートにおける一貫性の欠如といった、設計上の特定の西洋的知識、価値観、仮定に対して脆弱であることがわかった。
本研究は、我々のコミュニティに対する挑発やヒューリスティックな質問を抽出し、エンゲージメントの目標を達成するための調査の限界を認識し、慎重にかつ責任を持って調査を設計、展開、解釈するための共有原則を育むことを目的としている。
関連論文リスト
- A Survey of Stance Detection on Social Media: New Directions and Perspectives [50.27382951812502]
姿勢検出は 感情コンピューティングにおける 重要なサブフィールドとして現れました
近年は、効果的な姿勢検出手法の開発に対する研究の関心が高まっている。
本稿では,ソーシャルメディア上での姿勢検出手法に関する包括的調査を行う。
論文 参考訳(メタデータ) (2024-09-24T03:06:25Z) - A Survey of Privacy-Preserving Model Explanations: Privacy Risks, Attacks, and Countermeasures [50.987594546912725]
AIのプライバシと説明可能性に関する研究が増えているにもかかわらず、プライバシを保存するモデル説明にはほとんど注意が払われていない。
本稿では,モデル説明に対するプライバシ攻撃とその対策に関する,最初の徹底的な調査を紹介する。
論文 参考訳(メタデータ) (2024-03-31T12:44:48Z) - Particip-AI: A Democratic Surveying Framework for Anticipating Future AI Use Cases, Harms and Benefits [54.648819983899614]
汎用AIは、一般大衆がAIを使用してそのパワーを利用するための障壁を下げたようだ。
本稿では,AI利用事例とその影響を推測し,評価するためのフレームワークであるPartICIP-AIを紹介する。
論文 参考訳(メタデータ) (2024-03-21T19:12:37Z) - Advancing Explainable Autonomous Vehicle Systems: A Comprehensive Review and Research Roadmap [4.2330023661329355]
本研究は、説明生成とプレゼンテーションに関連する複雑さについて論じるものである。
私たちのロードマップは、責任ある研究とイノベーションの原則によって支えられています。
これらの研究の方向性を探ることで、説明可能なAVの開発と展開の指針となる。
論文 参考訳(メタデータ) (2024-03-19T11:43:41Z) - Exploring Public Opinion on Responsible AI Through The Lens of Cultural
Consensus Theory [0.1813006808606333]
文化合意理論を,AIの様々な側面に関する全国代表的調査データセットに適用した。
私たちの結果は、責任あるAIに関する共有とコントラストの見解を特定することで、貴重な洞察を与えます。
論文 参考訳(メタデータ) (2024-01-06T20:57:35Z) - Investigating Responsible AI for Scientific Research: An Empirical Study [4.597781832707524]
このような機関におけるResponsible AI(RAI)の推進は、AI設計と開発に倫理的配慮を統合することの重要性の高まりを強調している。
本稿では,AI設計・開発に内在する倫理的リスクに対する意識と準備性を評価することを目的とする。
その結果、倫理的、責任的、包括的AIに関する知識ギャップが明らかとなり、利用可能なAI倫理フレームワークに対する認識が制限された。
論文 参考訳(メタデータ) (2023-12-15T06:40:27Z) - Responsible AI Considerations in Text Summarization Research: A Review
of Current Practices [89.85174013619883]
私たちは、責任あるAIコミュニティがほとんど見落としている共通のNLPタスクである、テキスト要約に重点を置いています。
我々は,2020-2022年に出版されたACLアンソロジーから333の要約論文の多段階的質的分析を行った。
私たちは、どの、どの、どの責任あるAI問題がカバーされているか、どの関係するステークホルダーが考慮されているか、そして、述べられた研究目標と実現された研究目標のミスマッチに焦点を合わせます。
論文 参考訳(メタデータ) (2023-11-18T15:35:36Z) - The Sentiment Problem: A Critical Survey towards Deconstructing
Sentiment Analysis [9.379013474854776]
本研究では,感情分析(SA)の社会技術的側面について,その応用,モデル,データセットに関する189の査読論文を批判的に検討する。
感情に関する社会学的・技術的文献を掘り下げることで、金融、政府、医療などの分野において、この用語の明確な概念化を明らかにした。
我々の研究は、感情を特徴づける明確な定義と枠組みの欠如を露呈し、潜在的な課題とバイアスをもたらす。
論文 参考訳(メタデータ) (2023-10-18T20:42:44Z) - Stakeholder Participation in AI: Beyond "Add Diverse Stakeholders and
Stir" [76.44130385507894]
本稿では、既存の文献の参加と現在の実践の実証分析を通じて、AI設計における「参加的転換」を掘り下げることを目的としている。
本稿では,本論文の文献合成と実証研究に基づいて,AI設計への参加的アプローチを解析するための概念的枠組みを提案する。
論文 参考訳(メタデータ) (2021-11-01T17:57:04Z) - Empowering Local Communities Using Artificial Intelligence [70.17085406202368]
人中心の観点から、AIが社会に与える影響を探求する上で重要なトピックとなっている。
市民科学におけるこれまでの研究は、AIを使って研究に大衆を巻き込む方法を特定してきた。
本稿では,コミュニティ市民科学にAIを適用する上での課題について論じる。
論文 参考訳(メタデータ) (2021-10-05T12:51:11Z) - ESR: Ethics and Society Review of Artificial Intelligence Research [11.4503292891152]
Ethics and Society Review Board (ESR)は、AI研究の否定的な倫理的側面と社会的側面を軽減するために研究者と協力しているフィードバックパネルである。
この記事では、41の提案で最初の1年間に設計し、実行したESRについて述べます。
我々はこれらの提案に関するESRの総合的なフィードバックを分析し、このパネルがマイノリティグループに対する害の問題を最もよく特定していること、研究計画における多様な利害関係者の関与、二重利用、データの表現について調べる。
論文 参考訳(メタデータ) (2021-06-22T03:23:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。