論文の概要: How to design an AI ethics board
- arxiv url: http://arxiv.org/abs/2304.07249v1
- Date: Fri, 14 Apr 2023 16:53:50 GMT
- ステータス: 処理完了
- システム内更新日: 2023-04-17 13:00:13.056997
- Title: How to design an AI ethics board
- Title(参考訳): ai倫理委員会をデザインする方法
- Authors: Jonas Schuett, Anka Reuel, Alexis Carlier
- Abstract要約: AI倫理委員会のための5つのハイレベルな設計選択を特定します。
我々は、異なるデザインの選択が、AIからリスクを減らすボードの能力にどのように影響するかについて議論する。
- 参考スコア(独自算出の注目度): 2.191505742658975
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Organizations that develop and deploy artificial intelligence (AI) systems
need to take measures to reduce the associated risks. In this paper, we examine
how AI companies could design an AI ethics board in a way that reduces risks
from AI. We identify five high-level design choices: (1) What responsibilities
should the board have? (2) What should its legal structure be? (3) Who should
sit on the board? (4) How should it make decisions and should its decisions be
binding? (5) What resources does it need? We break down each of these questions
into more specific sub-questions, list options, and discuss how different
design choices affect the board's ability to reduce risks from AI. Several
failures have shown that designing an AI ethics board can be challenging. This
paper provides a toolbox that can help AI companies to overcome these
challenges.
- Abstract(参考訳): 人工知能(AI)システムの開発と展開を行う組織は、関連するリスクを減らすための措置を講じる必要がある。
本稿では,AI企業がAI倫理委員会を設計して,AIのリスクを軽減する方法について検討する。
我々は、ハイレベルな5つの設計選択を識別する: (1) ボードはどのような責任を持つべきか?
2)その法的構造とは何か?
(3)誰がボードに座るべきですか。
(4)どのように意思決定し、その決定を拘束すべきか?
(5)どのリソースが必要なのか?
これらの質問をそれぞれ、より具体的なサブ質問やリストオプションに分解し、さまざまなデザイン選択が、aiからのリスクを減らすボードの能力にどのように影響するかを議論します。
いくつかの失敗は、AI倫理委員会を設計することが困難であることを示している。
本稿は、AI企業がこれらの課題を克服するのに役立つツールボックスを提供する。
関連論文リスト
- Trustworthy AI: Deciding What to Decide [41.10597843436572]
我々は,AIの重要なコンポーネントを含む,信頼に値するAI(TAI)の新しいフレームワークを提案する。
我々は,この枠組みを用いて,定量的および定性的な研究手法によるTAI実験を実施することを目指している。
技術分野における信用デフォルトスワップ(CDS)の戦略的投資決定を適用するための最適予測モデルを定式化する。
論文 参考訳(メタデータ) (2023-11-21T13:43:58Z) - Seamful XAI: Operationalizing Seamful Design in Explainable AI [59.89011292395202]
AIシステムのミスは必然的であり、技術的制限と社会技術的ギャップの両方から生じる。
本稿では, 社会工学的・インフラ的ミスマッチを明らかにすることにより, シームレスな設計がAIの説明可能性を高めることを提案する。
43人のAI実践者と実際のエンドユーザでこのプロセスを探求します。
論文 参考訳(メタデータ) (2022-11-12T21:54:05Z) - Fairness in Agreement With European Values: An Interdisciplinary
Perspective on AI Regulation [61.77881142275982]
この学際的立場の論文は、AIにおける公平性と差別に関する様々な懸念を考察し、AI規制がそれらにどう対処するかについて議論する。
私たちはまず、法律、(AI)産業、社会技術、そして(道徳)哲学のレンズを通して、AIと公正性に注目し、様々な視点を提示します。
我々は、AI公正性の懸念の観点から、AI法の取り組みを成功に導くために、AIレギュレーションが果たす役割を特定し、提案する。
論文 参考訳(メタデータ) (2022-06-08T12:32:08Z) - Financial Vision Based Reinforcement Learning Trading Strategy [2.299476124054149]
AI取引の潜在的なリスクは、"ブラックボックス"決定である。
適切な監督なしにAIを使用する場合、AIは間違った選択を導き、大きな損失を被る可能性がある。
これらの問題は、トレーディング分野でAI技術が説明できる課題も浮き彫りにする。
論文 参考訳(メタデータ) (2022-02-03T02:14:38Z) - Cybertrust: From Explainable to Actionable and Interpretable AI (AI2) [58.981120701284816]
Actionable and Interpretable AI (AI2)は、AIレコメンデーションにユーザの信頼度を明確に定量化し視覚化する。
これにより、AIシステムの予測を調べてテストすることで、システムの意思決定に対する信頼の基盤を確立することができる。
論文 参考訳(メタデータ) (2022-01-26T18:53:09Z) - The Who in XAI: How AI Background Shapes Perceptions of AI Explanations [61.49776160925216]
私たちは、2つの異なるグループ、つまりAIのバックグラウンドを持つ人々といない人たちの、異なるタイプのAI説明に対する理解について、混合手法による研究を行います。
その結果,(1) 両群は異なる理由から不合理な数に対する信頼を示し,(2) それぞれの群は意図した設計以上の異なる説明に価値を見出した。
論文 参考訳(メタデータ) (2021-07-28T17:32:04Z) - The Threat of Offensive AI to Organizations [52.011307264694665]
この調査は、組織に対する攻撃的なAIの脅威を調査する。
まず、AIが敵の方法、戦略、目標、および全体的な攻撃モデルをどのように変えるかについて議論する。
そして、文献レビューを通じて、敵が攻撃を強化するために使用できる33の攻撃的AI能力を特定します。
論文 参考訳(メタデータ) (2021-06-30T01:03:28Z) - Building Bridges: Generative Artworks to Explore AI Ethics [56.058588908294446]
近年,人工知能(AI)技術が社会に与える影響の理解と緩和に重点が置かれている。
倫理的AIシステムの設計における重要な課題は、AIパイプラインには複数の利害関係者があり、それぞれがそれぞれ独自の制約と関心を持っていることだ。
このポジションペーパーは、生成的アートワークが、アクセス可能で強力な教育ツールとして機能することで、この役割を果たすことができる可能性のいくつかを概説する。
論文 参考訳(メタデータ) (2021-06-25T22:31:55Z) - The human-AI relationship in decision-making: AI explanation to support
people on justifying their decisions [4.169915659794568]
人々は、AIがどのように機能するか、そしてそのシステムとの関係を構築するために、その成果をもっと意識する必要があります。
意思決定のシナリオでは、人々はAIがどのように機能するか、そしてそのシステムとの関係を構築する結果についてもっと意識する必要があります。
論文 参考訳(メタデータ) (2021-02-10T14:28:34Z) - Towards AI Forensics: Did the Artificial Intelligence System Do It? [2.5991265608180396]
私たちは、デザインとグレーボックス分析によって潜在的に悪意のあるAIに焦点を当てています。
畳み込みニューラルネットワークによる評価は、悪意のあるAIを特定する上での課題とアイデアを示している。
論文 参考訳(メタデータ) (2020-05-27T20:28:19Z) - Evidence-based explanation to promote fairness in AI systems [3.190891983147147]
人は意思決定をし、通常、自分の決定を他の人や何かに説明する必要があります。
意思決定をAIサポートで説明するためには、AIがその決定の一部となっているかを理解する必要がある。
我々は,「意思決定の物語を語る」ためのエビデンスに基づく説明設計アプローチを模索してきた。
論文 参考訳(メタデータ) (2020-03-03T14:22:11Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。