論文の概要: Institutionalising Ethics in AI through Broader Impact Requirements
- arxiv url: http://arxiv.org/abs/2106.11039v1
- Date: Sun, 30 May 2021 12:36:43 GMT
- ステータス: 処理完了
- システム内更新日: 2021-06-27 13:04:12.899014
- Title: Institutionalising Ethics in AI through Broader Impact Requirements
- Title(参考訳): ブロードインパクト要求によるAIの倫理教育
- Authors: Carina Prunkl, Carolyn Ashurst, Markus Anderljung, Helena Webb, Jan
Leike, Allan Dafoe
- Abstract要約: 私たちは、世界最大級のAIカンファレンスの1つによる、新しいガバナンスイニシアチブを反映しています。
NeurIPSは、著者に対して、彼らの研究のより広範な社会的影響に関する声明を提出する要求を導入した。
このようなイニシアティブのリスクや課題,潜在的なメリットについて検討する。
- 参考スコア(独自算出の注目度): 8.793651996676095
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Turning principles into practice is one of the most pressing challenges of
artificial intelligence (AI) governance. In this article, we reflect on a novel
governance initiative by one of the world's largest AI conferences. In 2020,
the Conference on Neural Information Processing Systems (NeurIPS) introduced a
requirement for submitting authors to include a statement on the broader
societal impacts of their research. Drawing insights from similar governance
initiatives, including institutional review boards (IRBs) and impact
requirements for funding applications, we investigate the risks, challenges and
potential benefits of such an initiative. Among the challenges, we list a lack
of recognised best practice and procedural transparency, researcher opportunity
costs, institutional and social pressures, cognitive biases, and the inherently
difficult nature of the task. The potential benefits, on the other hand,
include improved anticipation and identification of impacts, better
communication with policy and governance experts, and a general strengthening
of the norms around responsible research. To maximise the chance of success, we
recommend measures to increase transparency, improve guidance, create
incentives to engage earnestly with the process, and facilitate public
deliberation on the requirement's merits and future. Perhaps the most important
contribution from this analysis are the insights we can gain regarding
effective community-based governance and the role and responsibility of the AI
research community more broadly.
- Abstract(参考訳): 原則を実践に変えることは、人工知能(AI)ガバナンスの最も急進的な課題の1つだ。
この記事では、世界最大のAIカンファレンスのひとつによる、新しいガバナンスイニシアチブについて振り返る。
2020年、神経情報処理システム会議(NeurIPS)は、著者に研究のより広範な社会的影響に関する声明を提出するよう要求した。
組織的レビューボード(irbs)や資金提供に対する影響要件など,類似したガバナンスイニシアチブからの洞察を引き合いに出し,このようなイニシアティブのリスク,課題,潜在的利益について検討する。
課題として,ベストプラクティスの欠如,手続きの透明性,研究者の機会コスト,制度的・社会的プレッシャー,認知バイアス,本質的に困難なタスクの性質を挙げる。
一方、潜在的な利益には、影響の予測と識別の改善、政策やガバナンスの専門家とのコミュニケーションの改善、責任ある研究に関する規範の全般的な強化が含まれる。
成功のチャンスを最大化するため、透明性の向上、ガイダンスの改善、プロセスに真剣に関与するためのインセンティブの作成、要件のメリットと将来に関する公的な審議の促進を推奨します。
この分析から得られる最も重要な貢献は、効果的なコミュニティベースのガバナンスと、AI研究コミュニティの役割と責任について、より広く得ることができる洞察である。
関連論文リスト
- AI and the Transformation of Accountability and Discretion in Urban Governance [1.9152655229960793]
この論文は、人間の裁量を再配置し、特定のタイプの説明責任を再形成するAIの可能性を強調している。
責任あるAI採用のためのフレームワークを推進し、都市のガバナンスが適応的で透明性があり、パブリックな価値と一致し続けることを保証します。
論文 参考訳(メタデータ) (2025-02-18T18:11:39Z) - Safety is Essential for Responsible Open-Ended Systems [47.172735322186]
オープンエンドレスネス(Open-Endedness)とは、AIシステムが新規で多様なアーティファクトやソリューションを継続的に自律的に生成する能力である。
このポジションペーパーは、Open-Ended AIの本質的に動的で自己伝播的な性質は、重大な、未発見のリスクをもたらすと主張している。
論文 参考訳(メタデータ) (2025-02-06T21:32:07Z) - Toward Ethical AI: A Qualitative Analysis of Stakeholder Perspectives [0.0]
この研究は、AIシステムのプライバシーに関するステークホルダーの視点を探求し、教育者、親、AI専門家に焦点をあてる。
この研究は、227人の参加者による調査回答の質的分析を用いて、データ漏洩、倫理的誤用、過剰なデータ収集を含む主要なプライバシーリスクを特定する。
この調査結果は、堅牢なプライバシ保護とAIのメリットのバランスに関する実用的な洞察を提供する。
論文 参考訳(メタデータ) (2025-01-23T02:06:25Z) - Responsible AI Governance: A Response to UN Interim Report on Governing AI for Humanity [15.434533537570614]
このレポートは、持続可能な開発目標を達成するためのAIの変革の可能性を強調している。
それは、関連するリスクを軽減するための堅牢なガバナンスの必要性を認めている。
報告書は、責任あるAIガバナンスを促進するための実行可能な原則で締めくくっている。
論文 参考訳(メタデータ) (2024-11-29T18:57:24Z) - Responsible AI in Open Ecosystems: Reconciling Innovation with Risk Assessment and Disclosure [4.578401882034969]
私たちは、モデルパフォーマンス評価がモデル制限やバイアス、その他のリスクの予測を通知したり、妨げたりする方法について焦点を当てています。
我々の発見は、倫理的取り込みを動機づけつつ、オープンソースのイノベーションを維持するための介入やポリシーを設計するAI提供者や法学者に通知することができる。
論文 参考訳(メタデータ) (2024-09-27T19:09:40Z) - Open Problems in Technical AI Governance [93.89102632003996]
テクニカルAIガバナンス(Technical AI Governance)は、AIの効果的なガバナンスを支援するための技術分析とツールである。
本論文は、AIガバナンスへの貢献を目指す技術研究者や研究資金提供者のためのリソースとして意図されている。
論文 参考訳(メタデータ) (2024-07-20T21:13:56Z) - ABI Approach: Automatic Bias Identification in Decision-Making Under Risk based in an Ontology of Behavioral Economics [46.57327530703435]
損失回避のようなバイアスによって引き起こされる損失に対する優先順位を求めるリスクは、課題を引き起こし、深刻なネガティブな結果をもたらす可能性がある。
本研究は,リスクサーチの選好を自動的に識別し,説明することにより,組織意思決定者を支援する新しいソリューションであるABIアプローチを紹介する。
論文 参考訳(メタデータ) (2024-05-22T23:53:46Z) - Towards Responsible AI in Banking: Addressing Bias for Fair
Decision-Making [69.44075077934914]
責任AI(Responsible AI)は、企業文化の発展におけるバイアスに対処する重要な性質を強調している。
この論文は、バイアスを理解すること、バイアスを緩和すること、バイアスを説明することの3つの基本的な柱に基づいて構成されている。
オープンソースの原則に従って、アクセス可能なPythonパッケージとして、Bias On DemandとFairViewをリリースしました。
論文 参考訳(メタデータ) (2024-01-13T14:07:09Z) - Responsible AI Considerations in Text Summarization Research: A Review
of Current Practices [89.85174013619883]
私たちは、責任あるAIコミュニティがほとんど見落としている共通のNLPタスクである、テキスト要約に重点を置いています。
我々は,2020-2022年に出版されたACLアンソロジーから333の要約論文の多段階的質的分析を行った。
私たちは、どの、どの、どの責任あるAI問題がカバーされているか、どの関係するステークホルダーが考慮されているか、そして、述べられた研究目標と実現された研究目標のミスマッチに焦点を合わせます。
論文 参考訳(メタデータ) (2023-11-18T15:35:36Z) - Enhanced well-being assessment as basis for the practical implementation
of ethical and rights-based normative principles for AI [0.0]
本稿では,自律・知能システムを対象とした健康影響評価フレームワークの実用化について述べる。
このプロセスは、AIシステムの影響を理解するための、人間中心のアルゴリズム支援アプローチを可能にする。
論文 参考訳(メタデータ) (2020-07-29T13:26:05Z) - Toward Trustworthy AI Development: Mechanisms for Supporting Verifiable
Claims [59.64274607533249]
AI開発者は、責任を負うことのできる検証可能な主張をする必要がある。
このレポートは、さまざまな利害関係者がAIシステムに関するクレームの妥当性を改善するための様々なステップを示唆している。
我々は、この目的のための10のメカニズム、すなわち、組織、ソフトウェア、ハードウェアを分析し、それらのメカニズムの実装、探索、改善を目的とした推奨を行う。
論文 参考訳(メタデータ) (2020-04-15T17:15:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。