論文の概要: ESR: Ethics and Society Review of Artificial Intelligence Research
- arxiv url: http://arxiv.org/abs/2106.11521v2
- Date: Fri, 9 Jul 2021 23:08:22 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-25 21:11:27.046522
- Title: ESR: Ethics and Society Review of Artificial Intelligence Research
- Title(参考訳): ESR: 人工知能研究の倫理と社会観
- Authors: Michael S. Bernstein, Margaret Levi, David Magnus, Betsy Rajala, Debra
Satz, Charla Waeiss
- Abstract要約: Ethics and Society Review Board (ESR)は、AI研究の否定的な倫理的側面と社会的側面を軽減するために研究者と協力しているフィードバックパネルである。
この記事では、41の提案で最初の1年間に設計し、実行したESRについて述べます。
我々はこれらの提案に関するESRの総合的なフィードバックを分析し、このパネルがマイノリティグループに対する害の問題を最もよく特定していること、研究計画における多様な利害関係者の関与、二重利用、データの表現について調べる。
- 参考スコア(独自算出の注目度): 11.4503292891152
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Artificial intelligence (AI) research is routinely criticized for its real
and potential impacts on society, and we lack adequate institutional responses
to this criticism and to the responsibility that it reflects. AI research often
falls outside the purview of existing feedback mechanisms such as the
Institutional Review Board (IRB), which are designed to evaluate harms to human
subjects rather than harms to human society. In response, we have developed the
Ethics and Society Review board (ESR), a feedback panel that works with
researchers to mitigate negative ethical and societal aspects of AI research.
The ESR's main insight is to serve as a requirement for funding: researchers
cannot receive grant funding from a major AI funding program at our university
until the researchers complete the ESR process for the proposal. In this
article, we describe the ESR as we have designed and run it over its first year
across 41 proposals. We analyze aggregate ESR feedback on these proposals,
finding that the panel most commonly identifies issues of harms to minority
groups, inclusion of diverse stakeholders in the research plan, dual use, and
representation in data. Surveys and interviews of researchers who interacted
with the ESR found that 58% felt that it had influenced the design of their
research project, 100% are willing to continue submitting future projects to
the ESR, and that they sought additional scaffolding for reasoning through
ethics and society issues.
- Abstract(参考訳): 人工知能(AI)の研究は、その現実的および潜在的な社会への影響について定期的に批判されており、我々はこの批判とそれが反映する責任に対する十分な制度的な反応を欠いている。
AI研究は、人間の社会に害を与えるのではなく、人に対する害を評価するように設計された、制度審査委員会(IRB)のような既存のフィードバックメカニズムの見地から外れることが多い。
そこで我々は,AI研究の否定的倫理的側面と社会的側面を緩和するためのフィードバックパネルであるEthics and Society Review Board (ESR)を開発した。
研究者は、この提案のためにesrプロセスが完了するまで、私たちの大学で主要なai資金プログラムから助成金を受けられません。
本稿では、41の提案で最初の1年間に設計し、実行してきたESRについて述べる。
我々はこれらの提案に関するESRの総合的なフィードバックを分析し、このパネルがマイノリティグループに対する害の問題を最もよく特定していること、研究計画における多様な利害関係者の関与、二重利用、データの表現について調べる。
esrと対話した研究者の調査では、58%が研究プロジェクトの設計に影響を与えていると感じており、100%は将来のプロジェクトをesrに提出し続け、倫理や社会問題を通じて推論のための足場を探していた。
関連論文リスト
- Transforming Science with Large Language Models: A Survey on AI-assisted Scientific Discovery, Experimentation, Content Generation, and Evaluation [58.064940977804596]
多くの新しいAIモデルとツールが提案され、世界中の研究者や学者が研究をより効果的かつ効率的に実施できるようにすることを約束している。
これらのツールの欠点と誤用の可能性に関する倫理的懸念は、議論の中で特に顕著な位置を占める。
論文 参考訳(メタデータ) (2025-02-07T18:26:45Z) - AI Governance in the Context of the EU AI Act: A Bibliometric and Literature Review Approach [0.0]
本研究は、EU AI Actの枠組みにおけるAIガバナンスの研究動向を分析した。
我々の研究結果によると、特にEUのAI法で規制されているAIシステムに関するAIガバナンスの研究は、より広範なAI研究の状況と比較しても比較的限られている。
論文 参考訳(メタデータ) (2025-01-08T11:01:11Z) - Surveys Considered Harmful? Reflecting on the Use of Surveys in AI Research, Development, and Governance [21.430179253600308]
私たちは、AIトピックに関する公開調査が、その設計における特定の西洋の知識、価値観、仮定に対して脆弱であることに気付きました。
我々は,参加の目標を達成するための調査の限界を認識するために,コミュニティに対する挑発や質問を蒸留する。
論文 参考訳(メタデータ) (2024-07-26T22:10:49Z) - Particip-AI: A Democratic Surveying Framework for Anticipating Future AI Use Cases, Harms and Benefits [54.648819983899614]
汎用AIは、一般大衆がAIを使用してそのパワーを利用するための障壁を下げたようだ。
本稿では,AI利用事例とその影響を推測し,評価するためのフレームワークであるPartICIP-AIを紹介する。
論文 参考訳(メタデータ) (2024-03-21T19:12:37Z) - A Safe Harbor for AI Evaluation and Red Teaming [124.89885800509505]
一部の研究者は、そのような研究の実施や研究成果の公表が、アカウント停止や法的報復につながることを恐れている。
我々は、主要なAI開発者が法的、技術的に安全な港を提供することを約束することを提案します。
これらのコミットメントは、ジェネレーティブAIのリスクに取り組むための、より包括的で意図しないコミュニティ努力への必要なステップである、と私たちは信じています。
論文 参考訳(メタデータ) (2024-03-07T20:55:08Z) - Responsible AI Considerations in Text Summarization Research: A Review
of Current Practices [89.85174013619883]
私たちは、責任あるAIコミュニティがほとんど見落としている共通のNLPタスクである、テキスト要約に重点を置いています。
我々は,2020-2022年に出版されたACLアンソロジーから333の要約論文の多段階的質的分析を行った。
私たちは、どの、どの、どの責任あるAI問題がカバーされているか、どの関係するステークホルダーが考慮されているか、そして、述べられた研究目標と実現された研究目標のミスマッチに焦点を合わせます。
論文 参考訳(メタデータ) (2023-11-18T15:35:36Z) - The Equitable AI Research Roundtable (EARR): Towards Community-Based
Decision Making in Responsible AI Development [4.1986677342209004]
The Equitable AI Research Roundtableの最初の評価について報告する。
EARRは、大手テック企業、非営利団体、NGO研究機関、大学と共同で設立された。
FAccTコミュニティの懸念に特に関係するEARRの運用方法に関する3つの原則を概説する。
論文 参考訳(メタデータ) (2023-03-14T18:57:20Z) - Human-Centered Responsible Artificial Intelligence: Current & Future
Trends [76.94037394832931]
近年、CHIコミュニティは人間中心のレスポンシブル人工知能の研究において著しい成長を遂げている。
この研究はすべて、人権と倫理に根ざしたまま、人類に利益をもたらすAIを開発し、AIの潜在的な害を減らすことを目的としている。
本研究グループでは,これらのトピックに関心のある学術・産業の研究者を集結させ,現在の研究動向と今後の研究動向を地図化することを目的とする。
論文 参考訳(メタデータ) (2023-02-16T08:59:42Z) - Ethics for social robotics: A critical analysis [8.778914180886835]
医療の実践のための社会ロボティクス開発と、これらのAIベースのシステムを制度的な医療文脈に組み込む欧州の展望は、緊急の倫理的反映を要求する。
社会ロボティクスの倫理的意味への関心が高まっているにもかかわらず、現在、社会支援ロボティクス(SAR)の中心的分野である社会支援ロボティクス(SAR)に関する議論は、不十分な倫理的アプローチに依存している。
本稿では,批判的な文献レビューの結果として確認された,この普及傾向について述べる。
論文 参考訳(メタデータ) (2022-07-25T22:18:00Z) - Stakeholder Participation in AI: Beyond "Add Diverse Stakeholders and
Stir" [76.44130385507894]
本稿では、既存の文献の参加と現在の実践の実証分析を通じて、AI設計における「参加的転換」を掘り下げることを目的としている。
本稿では,本論文の文献合成と実証研究に基づいて,AI設計への参加的アプローチを解析するための概念的枠組みを提案する。
論文 参考訳(メタデータ) (2021-11-01T17:57:04Z) - Nose to Glass: Looking In to Get Beyond [0.0]
責任ある人工知能を強化するというバナーの下で研究が増えている。
研究の目的は、アルゴリズムシステムの展開によって引き起こされる害に対処し、緩和し、最終的には軽減することである。
しかし、そのようなツールの実装は依然として少ない。
論文 参考訳(メタデータ) (2020-11-26T06:51:45Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。