論文の概要: Accuracy-Efficiency Trade-Offs and Accountability in Distributed ML
Systems
- arxiv url: http://arxiv.org/abs/2007.02203v6
- Date: Sat, 2 Oct 2021 22:01:32 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-13 13:56:04.081333
- Title: Accuracy-Efficiency Trade-Offs and Accountability in Distributed ML
Systems
- Title(参考訳): 分散MLシステムにおける精度・効率トレードオフとアカウンタビリティ
- Authors: A. Feder Cooper, Karen Levy, Christopher De Sa
- Abstract要約: 正確性と効率性の間のトレードオフ 法、公衆衛生、その他の非計算領域。
これらのトレードオフを調べることは、他のドメインのガバナンスを導くのに有用であるので、コンピュータシステムを管理する上でも同様にこれらのトレードオフに言及する必要がある、と私たちは主張する。
- 参考スコア(独自算出の注目度): 32.79201607581628
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Trade-offs between accuracy and efficiency pervade law, public health, and
other non-computing domains, which have developed policies to guide how to
balance the two in conditions of uncertainty. While computer science also
commonly studies accuracy-efficiency trade-offs, their policy implications
remain poorly examined. Drawing on risk assessment practices in the US, we
argue that, since examining these trade-offs has been useful for guiding
governance in other domains, we need to similarly reckon with these trade-offs
in governing computer systems. We focus our analysis on distributed machine
learning systems. Understanding the policy implications in this area is
particularly urgent because such systems, which include autonomous vehicles,
tend to be high-stakes and safety-critical. We 1) describe how the trade-off
takes shape for these systems, 2) highlight gaps between existing US risk
assessment standards and what these systems require to be properly assessed,
and 3) make specific calls to action to facilitate accountability when
hypothetical risks concerning the accuracy-efficiency trade-off become realized
as accidents in the real world. We close by discussing how such accountability
mechanisms encourage more just, transparent governance aligned with public
values.
- Abstract(参考訳): 正確さと効率性のトレードオフは、法律、公衆衛生、その他の非計算領域に浸透し、不確実性条件下での両者のバランスを導くための政策を策定した。
コンピュータ科学は、精度と効率のトレードオフもよく研究するが、その政策への影響はいまだに未検討である。
米国におけるリスクアセスメントの実践を踏まえて、これらのトレードオフを調べることは、他のドメインのガバナンスを導くのに有用であるので、コンピュータシステムを管理する上で同様のトレードオフを考慮する必要があると論じる。
分析は分散機械学習システムに焦点をあてる。
自動運転車を含むこのようなシステムは、高い取扱いと安全性を欠く傾向にあるため、この分野における政策上の意味を理解することは特に緊急である。
私たち
1)これらのシステムに対するトレードオフがどのように形成されるかを記述する。
2)既存の米国リスクアセスメント基準とこれらのシステムが適切に評価する必要があるものとのギャップを強調し、
3 現実の事故として、精度効率トレードオフに関する仮説上のリスクが実現した場合に、説明責任を促進するための具体的な対応を呼びかける。
このような説明責任メカニズムが、公開価値と整合した透明性のあるガバナンスを、いかに促進するかを議論する。
関連論文リスト
- Disciplining deliberation: a sociotechnical perspective on machine
learning trade-offs [0.0]
本稿では、責任ある人工知能(AI)分野における2つの高度に公表された正式なトレードオフに焦点を当てる。
これらの考慮を無視することは、私たちの規範的熟考を歪め、費用がかかり、不一致の介入や正当化をもたらすことを示します。
最終的には、これらの考慮から生まれる規範的な機会と課題を抽出し、責任あるAIを育むための学際的なコラボレーションの衝動を強調します。
論文 参考訳(メタデータ) (2024-03-07T05:03:18Z) - Towards Responsible AI in Banking: Addressing Bias for Fair
Decision-Making [69.44075077934914]
責任AI(Responsible AI)は、企業文化の発展におけるバイアスに対処する重要な性質を強調している。
この論文は、バイアスを理解すること、バイアスを緩和すること、バイアスを説明することの3つの基本的な柱に基づいて構成されている。
オープンソースの原則に従って、アクセス可能なPythonパッケージとして、Bias On DemandとFairViewをリリースしました。
論文 参考訳(メタデータ) (2024-01-13T14:07:09Z) - Safety Margins for Reinforcement Learning [53.10194953873209]
安全マージンを生成するためにプロキシ臨界度メトリクスをどのように活用するかを示す。
Atari 環境での APE-X と A3C からの学習方針に対するアプローチを評価する。
論文 参考訳(メタデータ) (2023-07-25T16:49:54Z) - Fairness in Contextual Resource Allocation Systems: Metrics and
Incompatibility Results [7.705334602362225]
本研究は、住宅を提供するホームレスサービスなど、基本的なニーズを満たすため、不足する資源を割り当てるシステムについて研究する。
これらの制度は、しばしば、体系的な人種、性別、その他の不正によって不当に影響を受けるコミュニティをサポートする。
本稿では,機械学習における公平度指標に触発された文脈的資源配分システムにおける公平性を評価するためのフレームワークを提案する。
論文 参考訳(メタデータ) (2022-12-04T02:30:58Z) - Towards a multi-stakeholder value-based assessment framework for
algorithmic systems [76.79703106646967]
我々は、価値間の近さと緊張を可視化する価値に基づくアセスメントフレームワークを開発する。
我々は、幅広い利害関係者に評価と検討のプロセスを開放しつつ、それらの運用方法に関するガイドラインを提示する。
論文 参考訳(メタデータ) (2022-05-09T19:28:32Z) - Accountability in AI: From Principles to Industry-specific Accreditation [4.033641609534416]
最近のAI関連のスキャンダルは、AIのアカウンタビリティに注目を向けている。
本稿では2つの貢献をするために公共政策とガバナンスから文献を引用する。
論文 参考訳(メタデータ) (2021-10-08T16:37:11Z) - Explanations of Machine Learning predictions: a mandatory step for its
application to Operational Processes [61.20223338508952]
信用リスクモデリングは重要な役割を果たす。
近年,機械学習や深層学習の手法が採用されている。
この分野における説明可能性問題に LIME 手法を適用することを提案する。
論文 参考訳(メタデータ) (2020-12-30T10:27:59Z) - Empirical observation of negligible fairness-accuracy trade-offs in
machine learning for public policy [13.037143215464132]
多くのアプリケーションにおける公平さと正確さのトレードオフは、実際には無視可能であることを示す。
その結果, 自己資本の達成と, 提案したポストホック格差緩和手法を用いて, 精度を犠牲にすることなく, 公平性を著しく向上したことがわかった。
論文 参考訳(メタデータ) (2020-12-05T08:10:47Z) - Trustworthy AI [75.99046162669997]
入力データの小さな敵対的変化への脆さ、決定の説明能力、トレーニングデータのバイアスに対処する能力は、最も顕著な制限である。
我々は,AIシステムに対するユーザおよび公的な信頼を高める上での6つの重要な問題に対処するために,信頼に値するAIに関するチュートリアルを提案する。
論文 参考訳(メタデータ) (2020-11-02T20:04:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。