論文の概要: A Brief Overview of AI Governance for Responsible Machine Learning
Systems
- arxiv url: http://arxiv.org/abs/2211.13130v1
- Date: Mon, 21 Nov 2022 23:48:51 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-24 14:48:42.651981
- Title: A Brief Overview of AI Governance for Responsible Machine Learning
Systems
- Title(参考訳): 責任ある機械学習システムのためのAIガバナンスの概要
- Authors: Navdeep Gill and Abhishek Mathur and Marcos V. Conde
- Abstract要約: このポジションペーパーは、AIの責任ある使用を監督するように設計されたフレームワークである、AIガバナンスの簡単な紹介を提案する。
AIの確率的性質のため、それに関連するリスクは従来の技術よりもはるかに大きい。
- 参考スコア(独自算出の注目度): 3.222802562733787
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: Organizations of all sizes, across all industries and domains are leveraging
artificial intelligence (AI) technologies to solve some of their biggest
challenges around operations, customer experience, and much more. However, due
to the probabilistic nature of AI, the risks associated with it are far greater
than traditional technologies. Research has shown that these risks can range
anywhere from regulatory, compliance, reputational, and user trust, to
financial and even societal risks. Depending on the nature and size of the
organization, AI technologies can pose a significant risk, if not used in a
responsible way. This position paper seeks to present a brief introduction to
AI governance, which is a framework designed to oversee the responsible use of
AI with the goal of preventing and mitigating risks. Having such a framework
will not only manage risks but also gain maximum value out of AI projects and
develop consistency for organization-wide adoption of AI.
- Abstract(参考訳): あらゆる規模の組織が、あらゆる産業やドメインにわたって、人工知能(AI)技術を活用して、運用や顧客エクスペリエンスに関する最大の課題を解決しています。
しかし、AIの確率的性質のため、それに関連するリスクは従来の技術よりもはるかに大きい。
調査によると、これらのリスクは規制、コンプライアンス、評判、ユーザー信頼から、金融や社会的なリスクまで、どこでも起こりうる。
組織の性質や規模によっては、AI技術は責任ある方法で使われていなくても、重大なリスクをもたらす可能性がある。
このポジションペーパーでは、リスクの予防と軽減を目標として、AIの責任ある使用を監督するためのフレームワークである、AIガバナンスの簡単な紹介を提案する。
このようなフレームワークを持つことは、リスクを管理するだけでなく、AIプロジェクトから最大限の価値を獲得し、組織全体のAI採用のための一貫性を開発することになる。
関連論文リスト
- Control Risk for Potential Misuse of Artificial Intelligence in Science [85.91232985405554]
我々は、科学におけるAI誤用の危険性の認識を高めることを目的としている。
化学科学における誤用の実例を取り上げる。
我々は、科学におけるAIモデルの誤用リスクを制御するSciGuardというシステムを提案する。
論文 参考訳(メタデータ) (2023-12-11T18:50:57Z) - A Red Teaming Framework for Securing AI in Maritime Autonomous Systems [0.0]
海上自律システムのAIセキュリティを評価するための,最初のレッドチームフレームワークを提案する。
このフレームワークはマルチパートのチェックリストであり、異なるシステムや要件に合わせて調整できる。
私たちはこのフレームワークが、現実の海上自律システムAI内の多数の脆弱性を明らかにするために、レッドチームにとって非常に効果的であることを実証しています。
論文 参考訳(メタデータ) (2023-12-08T14:59:07Z) - Managing AI Risks in an Era of Rapid Progress [147.61764296776164]
我々は、大規模社会被害と悪用、および自律型AIシステムに対する人間の制御の不可逆的喪失について検討する。
迅速かつ継続的なAIの進歩を踏まえ、我々はAI研究開発とガバナンスの緊急優先事項を提案する。
論文 参考訳(メタデータ) (2023-10-26T17:59:06Z) - AI Hazard Management: A framework for the systematic management of root
causes for AI risks [0.0]
本稿ではAI Hazard Management(AIHM)フレームワークを紹介する。
AIのハザードを体系的に識別し、評価し、治療するための構造化されたプロセスを提供する。
総合的な最先端分析からAIハザードリストを構築する。
論文 参考訳(メタデータ) (2023-10-25T15:55:50Z) - International Institutions for Advanced AI [47.449762587672986]
国際機関は、高度なAIシステムが人類に利益をもたらすための重要な役割を担っているかもしれない。
本稿では,これらの課題に対処するために,国際レベルで実施可能な一連のガバナンス機能について述べる。
これらの機能を4つの組織モデルに分類し、内部のシナジーを示し、既存の組織で先例を持つ。
論文 参考訳(メタデータ) (2023-07-10T16:55:55Z) - An Overview of Catastrophic AI Risks [38.84933208563934]
本稿では,破滅的なAIリスクの主な要因について概説し,その要因を4つのカテゴリに分類する。
個人やグループが意図的にAIを使用して危害を及ぼす悪用; 競争環境がアクターに安全でないAIを配置させたり、AIに制御を強制するAIレース。
組織的リスクは 人的要因と複雑なシステムが 破滅的な事故の 可能性を高めることを示しています
不正なAIは、人間よりもはるかにインテリジェントなエージェントを制御することの難しさを説明する。
論文 参考訳(メタデータ) (2023-06-21T03:35:06Z) - AI Maintenance: A Robustness Perspective [91.28724422822003]
我々は、AIライフサイクルにおけるロバストネスの課題を強調し、自動車のメンテナンスに類似させることで、AIのメンテナンスを動機付ける。
本稿では,ロバストネスリスクの検出と軽減を目的としたAIモデル検査フレームワークを提案する。
我々のAIメンテナンスの提案は、AIライフサイクル全体を通して堅牢性評価、状態追跡、リスクスキャン、モデル硬化、規制を促進する。
論文 参考訳(メタデータ) (2023-01-08T15:02:38Z) - Three lines of defense against risks from AI [0.0]
AIリスク管理の責任者は必ずしも明確ではない。
3つの防衛ライン(3LoD)モデルは、多くの産業でベストプラクティスと考えられている。
私は、AI企業がモデルを実装できる方法を提案する。
論文 参考訳(メタデータ) (2022-12-16T09:33:00Z) - Building Bridges: Generative Artworks to Explore AI Ethics [56.058588908294446]
近年,人工知能(AI)技術が社会に与える影響の理解と緩和に重点が置かれている。
倫理的AIシステムの設計における重要な課題は、AIパイプラインには複数の利害関係者があり、それぞれがそれぞれ独自の制約と関心を持っていることだ。
このポジションペーパーは、生成的アートワークが、アクセス可能で強力な教育ツールとして機能することで、この役割を果たすことができる可能性のいくつかを概説する。
論文 参考訳(メタデータ) (2021-06-25T22:31:55Z) - Artificial Tikkun Olam: AI Can Be Our Best Friend in Building an Open
Human-Computer Society [0.0]
我々は、あらゆる技術の広範な実践的展開が、ノウハウを誤用する有害な副作用をもたらす可能性があるという長年の知恵をレビューする。
我々は、医療産業やその他の分野における、一般的な、およびAI特有のリスクについて説明する。
本稿では,その社会的影響に対応した簡易な知的システム商法を提案する。
論文 参考訳(メタデータ) (2020-10-20T23:29:45Z) - Toward Trustworthy AI Development: Mechanisms for Supporting Verifiable
Claims [59.64274607533249]
AI開発者は、責任を負うことのできる検証可能な主張をする必要がある。
このレポートは、さまざまな利害関係者がAIシステムに関するクレームの妥当性を改善するための様々なステップを示唆している。
我々は、この目的のための10のメカニズム、すなわち、組織、ソフトウェア、ハードウェアを分析し、それらのメカニズムの実装、探索、改善を目的とした推奨を行う。
論文 参考訳(メタデータ) (2020-04-15T17:15:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。