論文の概要: Institutionalising Ethics in AI through Broader Impact Requirements
- arxiv url: http://arxiv.org/abs/2106.11039v1
- Date: Sun, 30 May 2021 12:36:43 GMT
- ステータス: 処理完了
- システム内更新日: 2021-06-27 13:04:12.899014
- Title: Institutionalising Ethics in AI through Broader Impact Requirements
- Title(参考訳): ブロードインパクト要求によるAIの倫理教育
- Authors: Carina Prunkl, Carolyn Ashurst, Markus Anderljung, Helena Webb, Jan
Leike, Allan Dafoe
- Abstract要約: 私たちは、世界最大級のAIカンファレンスの1つによる、新しいガバナンスイニシアチブを反映しています。
NeurIPSは、著者に対して、彼らの研究のより広範な社会的影響に関する声明を提出する要求を導入した。
このようなイニシアティブのリスクや課題,潜在的なメリットについて検討する。
- 参考スコア(独自算出の注目度): 8.793651996676095
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Turning principles into practice is one of the most pressing challenges of
artificial intelligence (AI) governance. In this article, we reflect on a novel
governance initiative by one of the world's largest AI conferences. In 2020,
the Conference on Neural Information Processing Systems (NeurIPS) introduced a
requirement for submitting authors to include a statement on the broader
societal impacts of their research. Drawing insights from similar governance
initiatives, including institutional review boards (IRBs) and impact
requirements for funding applications, we investigate the risks, challenges and
potential benefits of such an initiative. Among the challenges, we list a lack
of recognised best practice and procedural transparency, researcher opportunity
costs, institutional and social pressures, cognitive biases, and the inherently
difficult nature of the task. The potential benefits, on the other hand,
include improved anticipation and identification of impacts, better
communication with policy and governance experts, and a general strengthening
of the norms around responsible research. To maximise the chance of success, we
recommend measures to increase transparency, improve guidance, create
incentives to engage earnestly with the process, and facilitate public
deliberation on the requirement's merits and future. Perhaps the most important
contribution from this analysis are the insights we can gain regarding
effective community-based governance and the role and responsibility of the AI
research community more broadly.
- Abstract(参考訳): 原則を実践に変えることは、人工知能(AI)ガバナンスの最も急進的な課題の1つだ。
この記事では、世界最大のAIカンファレンスのひとつによる、新しいガバナンスイニシアチブについて振り返る。
2020年、神経情報処理システム会議(NeurIPS)は、著者に研究のより広範な社会的影響に関する声明を提出するよう要求した。
組織的レビューボード(irbs)や資金提供に対する影響要件など,類似したガバナンスイニシアチブからの洞察を引き合いに出し,このようなイニシアティブのリスク,課題,潜在的利益について検討する。
課題として,ベストプラクティスの欠如,手続きの透明性,研究者の機会コスト,制度的・社会的プレッシャー,認知バイアス,本質的に困難なタスクの性質を挙げる。
一方、潜在的な利益には、影響の予測と識別の改善、政策やガバナンスの専門家とのコミュニケーションの改善、責任ある研究に関する規範の全般的な強化が含まれる。
成功のチャンスを最大化するため、透明性の向上、ガイダンスの改善、プロセスに真剣に関与するためのインセンティブの作成、要件のメリットと将来に関する公的な審議の促進を推奨します。
この分析から得られる最も重要な貢献は、効果的なコミュニティベースのガバナンスと、AI研究コミュニティの役割と責任について、より広く得ることができる洞察である。
関連論文リスト
- Responsible AI in Open Ecosystems: Reconciling Innovation with Risk Assessment and Disclosure [4.578401882034969]
私たちは、モデルパフォーマンス評価がモデル制限やバイアス、その他のリスクの予測を通知したり、妨げたりする方法について焦点を当てています。
我々の発見は、倫理的取り込みを動機づけつつ、オープンソースのイノベーションを維持するための介入やポリシーを設計するAI提供者や法学者に通知することができる。
論文 参考訳(メタデータ) (2024-09-27T19:09:40Z) - Open Problems in Technical AI Governance [93.89102632003996]
テクニカルAIガバナンス(Technical AI Governance)は、AIの効果的なガバナンスを支援するための技術分析とツールである。
本論文は、AIガバナンスへの貢献を目指す技術研究者や研究資金提供者のためのリソースとして意図されている。
論文 参考訳(メタデータ) (2024-07-20T21:13:56Z) - Challenges and Best Practices in Corporate AI Governance:Lessons from the Biopharmaceutical Industry [0.0]
我々は、AIガバナンスを運用しようとする組織が直面する課題について議論する。
これらには、AIガバナンスの物質的スコープをどのように定義するかに関する質問が含まれている。
私たちは、一般的なベストプラクティスでAIガバナンスフレームワークを設計、実装する責任を持つプロジェクトマネージャ、AI実践者、データプライバシオフィサーを提供したいと思っています。
論文 参考訳(メタデータ) (2024-07-07T12:01:42Z) - ABI Approach: Automatic Bias Identification in Decision-Making Under Risk based in an Ontology of Behavioral Economics [46.57327530703435]
損失回避のようなバイアスによって引き起こされる損失に対する優先順位を求めるリスクは、課題を引き起こし、深刻なネガティブな結果をもたらす可能性がある。
本研究は,リスクサーチの選好を自動的に識別し,説明することにより,組織意思決定者を支援する新しいソリューションであるABIアプローチを紹介する。
論文 参考訳(メタデータ) (2024-05-22T23:53:46Z) - Towards Responsible AI in Banking: Addressing Bias for Fair
Decision-Making [69.44075077934914]
責任AI(Responsible AI)は、企業文化の発展におけるバイアスに対処する重要な性質を強調している。
この論文は、バイアスを理解すること、バイアスを緩和すること、バイアスを説明することの3つの基本的な柱に基づいて構成されている。
オープンソースの原則に従って、アクセス可能なPythonパッケージとして、Bias On DemandとFairViewをリリースしました。
論文 参考訳(メタデータ) (2024-01-13T14:07:09Z) - Responsible AI Governance: A Systematic Literature Review [8.318630741859113]
本稿では,AIガバナンスに関する既存の文献を検討することを目的とする。
WHOはAIシステムのガバナンスに責任を持ち、WHAT要素は管理されており、WHENガバナンスはAI開発ライフサイクル内で発生し、HOWはフレームワーク、ツール、標準、ポリシー、モデルといった様々なメカニズムによって実行される。
本研究の成果は,RAI原則に沿った包括的ガバナンスモデルの研究・開発の基礎となるものである。
論文 参考訳(メタデータ) (2023-12-18T05:22:36Z) - Investigating Responsible AI for Scientific Research: An Empirical Study [4.597781832707524]
このような機関におけるResponsible AI(RAI)の推進は、AI設計と開発に倫理的配慮を統合することの重要性の高まりを強調している。
本稿では,AI設計・開発に内在する倫理的リスクに対する意識と準備性を評価することを目的とする。
その結果、倫理的、責任的、包括的AIに関する知識ギャップが明らかとなり、利用可能なAI倫理フレームワークに対する認識が制限された。
論文 参考訳(メタデータ) (2023-12-15T06:40:27Z) - Responsible AI Considerations in Text Summarization Research: A Review
of Current Practices [89.85174013619883]
私たちは、責任あるAIコミュニティがほとんど見落としている共通のNLPタスクである、テキスト要約に重点を置いています。
我々は,2020-2022年に出版されたACLアンソロジーから333の要約論文の多段階的質的分析を行った。
私たちは、どの、どの、どの責任あるAI問題がカバーされているか、どの関係するステークホルダーが考慮されているか、そして、述べられた研究目標と実現された研究目標のミスマッチに焦点を合わせます。
論文 参考訳(メタデータ) (2023-11-18T15:35:36Z) - Fairness in Recommender Systems: Research Landscape and Future
Directions [119.67643184567623]
本稿は,近年の地域におけるフェアネスの概念と概念について概観する。
この分野での研究が現在どのように行われているのかを概観する。
全体として、最近の研究成果の分析は、ある研究のギャップを示している。
論文 参考訳(メタデータ) (2022-05-23T08:34:25Z) - Enhanced well-being assessment as basis for the practical implementation
of ethical and rights-based normative principles for AI [0.0]
本稿では,自律・知能システムを対象とした健康影響評価フレームワークの実用化について述べる。
このプロセスは、AIシステムの影響を理解するための、人間中心のアルゴリズム支援アプローチを可能にする。
論文 参考訳(メタデータ) (2020-07-29T13:26:05Z) - Toward Trustworthy AI Development: Mechanisms for Supporting Verifiable
Claims [59.64274607533249]
AI開発者は、責任を負うことのできる検証可能な主張をする必要がある。
このレポートは、さまざまな利害関係者がAIシステムに関するクレームの妥当性を改善するための様々なステップを示唆している。
我々は、この目的のための10のメカニズム、すなわち、組織、ソフトウェア、ハードウェアを分析し、それらのメカニズムの実装、探索、改善を目的とした推奨を行う。
論文 参考訳(メタデータ) (2020-04-15T17:15:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。