論文の概要: Exploring the Relevance of Data Privacy-Enhancing Technologies for AI
Governance Use Cases
- arxiv url: http://arxiv.org/abs/2303.08956v2
- Date: Mon, 20 Mar 2023 23:39:09 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-23 22:21:04.201093
- Title: Exploring the Relevance of Data Privacy-Enhancing Technologies for AI
Governance Use Cases
- Title(参考訳): AIガバナンスユースケースにおけるデータプライバシ・エンハンシング技術との関連性を探る
- Authors: Emma Bluemke, Tantum Collins, Ben Garfinkel, Andrew Trask
- Abstract要約: 異なるAIガバナンスの目的を情報フローのシステムとして見ることは有用である。
これらの異なるAIガバナンスソリューション間の相互運用性の重要性は明確になる。
- 参考スコア(独自算出の注目度): 1.5293427903448022
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The development of privacy-enhancing technologies has made immense progress
in reducing trade-offs between privacy and performance in data exchange and
analysis. Similar tools for structured transparency could be useful for AI
governance by offering capabilities such as external scrutiny, auditing, and
source verification. It is useful to view these different AI governance
objectives as a system of information flows in order to avoid partial solutions
and significant gaps in governance, as there may be significant overlap in the
software stacks needed for the AI governance use cases mentioned in this text.
When viewing the system as a whole, the importance of interoperability between
these different AI governance solutions becomes clear. Therefore, it is
imminently important to look at these problems in AI governance as a system,
before these standards, auditing procedures, software, and norms settle into
place.
- Abstract(参考訳): プライバシ強化技術の開発は、データ交換と分析におけるプライバシとパフォーマンスの間のトレードオフを減らすために大きな進歩を遂げています。
構造化された透明性のための同様のツールは、外部監視、監査、ソース検証などの機能を提供することで、AIガバナンスに役立ちます。
これらの異なるAIガバナンスの目的を、部分的なソリューションやガバナンスの大きなギャップを避けるために、情報フローのシステムとして見るのが有用である。
システム全体を眺めると、これらの異なるAIガバナンスソリューション間の相互運用性の重要性が明確になります。
したがって、これらの標準、監査手順、ソフトウェア、規範が定着する前に、AIガバナンスにおけるこれらの問題をシステムとして見ていくことが極めて重要である。
関連論文リスト
- Open Problems in Technical AI Governance [93.89102632003996]
テクニカルAIガバナンス(Technical AI Governance)は、AIの効果的なガバナンスを支援するための技術分析とツールである。
本論文は、AIガバナンスへの貢献を目指す技術研究者や研究資金提供者のためのリソースとして意図されている。
論文 参考訳(メタデータ) (2024-07-20T21:13:56Z) - Combining AI Control Systems and Human Decision Support via Robustness and Criticality [53.10194953873209]
我々は、逆説(AE)の方法論を最先端の強化学習フレームワークに拡張する。
学習したAI制御システムは、敵のタンパリングに対する堅牢性を示す。
トレーニング/学習フレームワークでは、この技術は人間のインタラクションを通じてAIの決定と説明の両方を改善することができる。
論文 参考訳(メタデータ) (2024-07-03T15:38:57Z) - Computing Power and the Governance of Artificial Intelligence [51.967584623262674]
政府や企業は、AIを管理する手段として計算を活用し始めている。
計算ベースのポリシーと技術は、これらの領域を補助する可能性があるが、実装の準備ができている点で大きなバリエーションがある。
プライバシーや経済的影響、権力の中央集権化といった分野において、ガバナンスの計算方法の素早い、あるいは不十分なアプローチは重大なリスクを伴います。
論文 参考訳(メタデータ) (2024-02-13T21:10:21Z) - Data-Centric Governance [6.85316573653194]
現在のAIガバナンスアプローチは、主に手作業によるレビューとドキュメントプロセスで構成されている。
データに作用し、データを生成し、データエンジニアリングを通じて構築される。
本研究では、データセットとアルゴリズムによる評価を通じて、ガバナンス要件の体系化について検討する。
論文 参考訳(メタデータ) (2023-02-14T07:22:32Z) - Artificial Intelligence in Governance, Risk and Compliance: Results of a study on potentials for the application of artificial intelligence (AI) in governance, risk and compliance (GRC) [0.0]
GRC(Governance, Risk and Compliance)とは、ガバナンスの統合的なアプローチである。
ガバナンス機能は相互にリンクされ、互いに分離されない。
人工知能は、非構造化データセットの処理と分析にGRCで使用されている。
論文 参考訳(メタデータ) (2022-12-07T12:36:10Z) - Think About the Stakeholders First! Towards an Algorithmic Transparency
Playbook for Regulatory Compliance [14.043062659347427]
世界中の政府によって、公共および民間セクターに導入された人工知能(AI)システムを規制するための法律が提案され、可決されている。
これらの規則の多くは、AIシステムの透明性と、関連する市民意識の問題に対処している。
我々は,透明で規制に適合したシステムを設計する上で,技術者を支援する新たな利害関係者優先のアプローチを提案する。
論文 参考訳(メタデータ) (2022-06-10T09:39:00Z) - AI Assurance using Causal Inference: Application to Public Policy [0.0]
ほとんどのAIアプローチは、"ブラックボックス"としてのみ表現することができ、透明性の欠如に悩まされる。
効果的で堅牢なAIシステムを開発するだけでなく、内部プロセスが説明可能で公平であることを確認することも重要です。
論文 参考訳(メタデータ) (2021-12-01T16:03:06Z) - Trustworthy Artificial Intelligence and Process Mining: Challenges and
Opportunities [0.8602553195689513]
プロセスマイニングは、AIコンプライアンスプロセスの実行に事実に基づく可視性を得るために有用なフレームワークを提供することができることを示す。
AI規制コンプライアンスプロセスの不確実性を分析し、修正し、監視する自動化アプローチを提供する。
論文 参考訳(メタデータ) (2021-10-06T12:50:47Z) - Trustworthy AI [75.99046162669997]
入力データの小さな敵対的変化への脆さ、決定の説明能力、トレーニングデータのバイアスに対処する能力は、最も顕著な制限である。
我々は,AIシステムに対するユーザおよび公的な信頼を高める上での6つの重要な問題に対処するために,信頼に値するAIに関するチュートリアルを提案する。
論文 参考訳(メタデータ) (2020-11-02T20:04:18Z) - Trustworthy AI Inference Systems: An Industry Research View [58.000323504158054]
我々は、信頼できるAI推論システムの設計、展開、運用にアプローチするための業界調査ビューを提供する。
信頼された実行環境を用いたAIシステムの機会と課題を強調します。
我々は,産業,アカデミック,政府研究者のグローバルな集団的注意を必要とする,さらなる発展の分野を概説する。
論文 参考訳(メタデータ) (2020-08-10T23:05:55Z) - Toward Trustworthy AI Development: Mechanisms for Supporting Verifiable
Claims [59.64274607533249]
AI開発者は、責任を負うことのできる検証可能な主張をする必要がある。
このレポートは、さまざまな利害関係者がAIシステムに関するクレームの妥当性を改善するための様々なステップを示唆している。
我々は、この目的のための10のメカニズム、すなわち、組織、ソフトウェア、ハードウェアを分析し、それらのメカニズムの実装、探索、改善を目的とした推奨を行う。
論文 参考訳(メタデータ) (2020-04-15T17:15:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。