論文の概要、ライセンス

# (参考訳) 責任あるaiを例外ではなく規範にする [全文訳有]

Making Responsible AI the Norm rather than the Exception ( http://arxiv.org/abs/2101.11832v1 )

ライセンス: CC BY 4.0
Abhishek Gupta (Montreal AI Ethics Institute and Microsoft)(参考訳) モントリオールAI倫理研究所が作成したこのレポートは、人工知能に関する国家安全保障委員会(National Security Commission on Artificial Intelligence (NSCAI) Key considerations for Responsible Development and Fielding of Artificial Intelligence documentに応答して推奨している。 報告書は、責任あるAIは例外ではなくノルムを作るべきだという考えを中心にしている。 それは、(1)既存のワークフローの摩擦を軽減する、(2)利害関係者に購入を許可する、(3)抽象的な標準を実行可能なエンジニアリングプラクティスに効果的な変換を行う、というガイド原則を活用することによって実現される。 NSCAIからドキュメントに関する包括的なコメントを提供した後、レポートは、NSCAIから文書に提示されたアイデアを運用するのに役立つ、実行可能なフレームワークの主な貢献について掘り下げる。 フレームワークは,(1)学習,知識,情報交換(LKIE),(2)責任AIの3つの方法,(3)経験的に駆動されるリスク優先化行列,(4)適切な複雑性レベルを達成することから構成される。 すべてのコンポーネントは相互に強化され、Responsible AIを例外ではなく規範とする上での原則から実践へと移行する。

This report prepared by the Montreal AI Ethics Institute provides recommendations in response to the National Security Commission on Artificial Intelligence (NSCAI) Key Considerations for Responsible Development and Fielding of Artificial Intelligence document. The report centres on the idea that Responsible AI should be made the Norm rather than an Exception. It does so by utilizing the guiding principles of: (1) alleviating friction in existing workflows, (2) empowering stakeholders to get buy-in, and (3) conducting an effective translation of abstract standards into actionable engineering practices. After providing some overarching comments on the document from the NSCAI, the report dives into the primary contribution of an actionable framework to help operationalize the ideas presented in the document from the NSCAI. The framework consists of: (1) a learning, knowledge, and information exchange (LKIE), (2) the Three Ways of Responsible AI, (3) an empirically-driven risk-prioritization matrix, and (4) achieving the right level of complexity. All components reinforce each other to move from principles to practice in service of making Responsible AI the norm rather than the exception.
公開日: Thu, 28 Jan 2021 06:39:01 GMT

※ 翻訳結果を表に示しています。PDFがオリジナルの論文です。翻訳結果のライセンスはCC BY-SA 4.0です。詳細はトップページをご参照ください。

翻訳結果

    Page: /      
英語(論文から抽出)日本語訳スコア
Montreal AI Ethics Institute モントリオールAI倫理研究所 0.66
An international, non-profit research institute helping humanity define its place in a world 人類が世界においてその位置を定義することを支援する国際非営利研究機関 0.69
increasingly driven and characterized by algorithms アルゴリズムによって特徴づけられる 0.66
Website​: ​https://montrealethi cs.ai ウェブサイト : https://montrealethi cs.ai 0.68
Newsletter​: ​https://aiethics.sub stack.com Newsletter : https://aiethics.sub stack.com 0.59
Making Responsible AI the Norm rather than the Exception 責任あるaiを例外ではなく規範にする 0.64
A report prepared by the Montreal AI Ethics Institute モントリオールAI倫理研究所が作成した報告書 0.74
for the National Security Commission on Artificial Intelligence 人工知能に関する国家安全保障委員会の 0.68
Based on insights, analysis, and original research by the Montreal AI Ethics Institute (MAIEI) staff of the ​NSCAI Key Considerations for Responsible Development and Fielding of Artificial Intelligence​ and supplemented by ​workshop​ contributions from the AI Ethics NSCAI Key considerations for Responsible Development and Fielding of Artificial Intelligence のモントリオールAI倫理研究所 (MAIEI) スタッフによる洞察、分析、およびオリジナル研究に基づいて、AI倫理のワークショップ貢献によって補完される。 0.81
community convened by MAIEI on September 23, 2020. 2020年9月23日にMAIEIが主催したコミュニティ。 0.62
Submitted on January 13, 2021 2021年1月13日提出 0.79
Primary contact for the report: 報告書の第一の接触: 0.79
Abhishek Gupta (​abhishek@montrealeth ics.ai​) Abhishek Gupta (abhishek@montrealet hics.ai ) 0.94
Founder and Principal Researcher, Montreal AI Ethics Institute モントリオールAI倫理研究所創設者・主任研究者 0.73
Machine Learning Engineer and CSE Responsible AI Board Member, Microsoft 機械学習エンジニアとcseの責任あるaiボードメンバー、microsoft 0.79
This work is licensed under a ​Creative Commons Attribution 4.0 International License この作品はcreative commons attribution 4.0 international licenseでライセンスされている。 0.68
英語(論文から抽出)日本語訳スコア
Montreal AI Ethics Institute モントリオールAI倫理研究所 0.66
Table of Contents Table of Contents Introduction 内容表 内容表 はじめに 0.52
Some general comments Organizational Technical Community 概論 組織的技術コミュニティ 0.52
Learning, Knowledge, and Information Exchange (LKIE) 学習・知識・情報交換(LKIE) 0.67
What is it? Why is this needed? それは何ですか? なぜこれが必要か? 0.81
Reducing redundancy Accelerating the deployment of Responsible AI Responsible AIの展開を加速する冗長性の削減 0.81
What will it look like? どんな風に見えますか? 0.65
RSS feed-like subscriptions Engineering focused discussion fora Lived-experience community consultations RSSフィードライクサブスクリプションエンジニアリングは、ライブ体験コミュニティのコンサルテーションのための議論に焦点を当てた 0.49
How will it work in practice? 実際にどのように動作するのか? 0.63
Integration into existing project management workflows Part of the US Government Agencies’ internal evaluations 米国政府機関の内部評価における既存のプロジェクト管理ワークフローへの統合 0.89
How will we measure the impact? どのように影響を測るか? 0.76
SRE-inspired metrics SREによるメトリクス 0.57
The Three Ways of Responsible AI 責任あるAIの3つの方法 0.72
What is it? Why is this needed? それは何ですか? なぜこれが必要か? 0.81
Clarity on the importance of Responsible AI as a concrete endeavour Actionable advice What will it look like? 具体的な実行可能なアドバイスとしての責任AIの重要性を明確にする。 0.57
Shared manifesto Feedback templates マニフェスト共有のフィードバックテンプレート 0.77
How will it work in practice? 実際にどのように動作するのか? 0.63
Colloquiums Post-mortems Pre-mortems Growing dedicated staff Colloquiumsのポストモーテム、専門スタッフを増員 0.69
2 2 0.85
英語(論文から抽出)日本語訳スコア
Montreal AI Ethics Institute モントリオールAI倫理研究所 0.66
How will we measure the impact? どのように影響を測るか? 0.76
Engineering feedback forms Pulse checks on internal fora Potential improvements in the SRE-inspired metrics エンジニアリングフィードバックは内部フォアのパルスチェックを形成する。SREに触発されたメトリクスの潜在的改善 0.62
Empirically-driven risk prioritization matrix 経験的リスク優先化行列 0.61
What is it? Why is this needed? それは何ですか? なぜこれが必要か? 0.81
Lifecycle view Roadmap ライフサイクルビューのロードマップ 0.51
What will it look like? どんな風に見えますか? 0.65
Two-dimensional matrix How will it work in practice? 二次元マトリックスは実際どのように機能するのか? 0.60
Gathering empirical data Post-mortem on the effectiveness of the matrix recommendations 行列推薦の有効性に関する実証データ収集ポストモーテム 0.65
How will we measure the impact? どのように影響を測るか? 0.76
Pulse feedback from employees SRE-inspired metrics SREによる評価指標からのパルスフィードバック 0.62
Achieving the right level of complexity 正しいレベルの複雑さを達成する 0.81
What is it? Why is this needed? それは何ですか? なぜこれが必要か? 0.81
Exposing too much to the developers 開発者に過剰に露出する 0.75
What will it look like? どんな風に見えますか? 0.65
Progressive disclosures Feedback calibration プログレッシブディスクロージャーのフィードバックキャリブレーション 0.73
How will it work in practice? 実際にどのように動作するのか? 0.63
Working with design researchers Community insights デザイン研究者と協力するコミュニティの洞察 0.70
How will we measure the impact? どのように影響を測るか? 0.76
SRE-inspired metrics and feedback sentiments SREによるメトリクスとフィードバックの感情 0.66
Conclusion 3 結論 3 0.74
英語(論文から抽出)日本語訳スコア
Montreal AI Ethics Institute モントリオールAI倫理研究所 0.66
the analysis that has been done by the MAIEI staff 前井の職員が行った分析 0.49
Introduction We were particularly thrilled with the opportunity to host a public consultation session to to analyze the ​Key supplement Considerations for Responsible Development and Fielding of AI​(“Document”) by the NSCAI. はじめに、NSCAIによるAI(「ドキュメント」)の責任ある開発とフィールド化のための主補的考察を分析するためのパブリックコンサルテーションセッションを開催する機会に特に興奮しました。 0.79
It is one of those initiatives that stood out in 2020 with its repeated focus on looking at the practicalities of putting Responsible AI in practice rather than just focusing on the high-level principles. ハイレベルな原則にフォーカスするのではなく、レスポンシブルAIを実践する実用性に目を向けることに重点を置いて、2020年に際立った取り組みの1つです。 0.66
There are 100+ documents on the OECD AI Policy Observatory which provide overlapping principles but most still shy away from providing concrete details on what needs to be done to operationalize these ideas and providing concrete directions for future research. OECD AI Policy Observatoryには、重複する原則を提供する100以上の文書がありますが、ほとんどのものは、これらのアイデアを運用するための具体的な詳細の提供と、今後の研究のための具体的な方向性の提供から遠ざかっています。 0.57
In that vein, the Document from the NSCAI has been an excellent resource not only for the US Government agencies but also the rest of the ecosystem. NSCAIからのドキュメントは、米国政府機関だけでなく、エコシステムの他の部分にとっても優れたリソースとなっています。 0.69
the document and integration of comments from the public After a thorough review of consultation workshop by the staff at MAIEI along with follow-on research and conceptualization, we have come up with several recommendations that we believe will further strengthen the Document from the NSCAI and help to augment the entire ecosystem’s efforts in achieving responsible AI in practice. 公衆からのコメントの文書と統合 MAIEIのスタッフによる協議ワークショップの徹底的なレビューと、その後の研究と概念化の後、私たちはNSCAIから文書をさらに強化し、実際の責任あるAIの実現におけるエコシステム全体の取り組みを強化するのに役立つと信じているいくつかの推奨事項を考え出しました。 0.83
for this is to ​make Responsible AI the norm rather than the Our overarching mindset exception​. これは、私たちの階層的マインドセット例外ではなく、レスポンシブルAIを標準にすることです。 0.49
Keeping that in mind, we believe that the following 3 ideas will be critical for the success of the measures proposed in the Document. これを念頭に置いて、以下の3つの考えが文書に提案されている措置の成功に不可欠であると信じている。 0.72
1 1. Alleviating friction in existing workflows 1 1. 既存のワークフローにおける摩擦緩和 0.76
a. This can be achieved if we are cognizant of the friction points that we encounter in the existing engineering workflows and working with the engineering teams to in ​increasing adoption​. A. 既存のエンジニアリングワークフローで遭遇した摩擦点を認識して、エンジニアリングチームと協力して採用を拡大すれば、これは実現できます。
訳抜け防止モード: A. これは我々が摩擦点を認識すれば達成できます 既存のエンジニアリングワークフローで遭遇し エンジニアリングチームと協力して、採用を増加させます。
0.73
An example of this is unblock these will be critical highlighted in some early work that MAIEI presented at ICML 2020 Challenges in Deploying and Monitoring Machine Learning Systems titled Green Lighting ML: Confidentiality, Integrity, and Availability of Machine Learning Systems in Deployment . これはブロック解除の例であり、MAIEIがICML 2020 Challenges in Deploying and Monitoring Machine Learning Systemsで発表した、Green Lighting ML: Confidentiality, Integrity, and Availability of Machine Learning Systems in Deployment という初期の研究で強調される。 0.78
3 2 2. 3 2 2. 0.85
Empowering stakeholders and buy-in 利害関係者の力と買い入れ 0.55
a. This also requires buy-in from stakeholders (which can be achieved through highlighting the value that responsible AI brings and how it is ​not a barrier to achieving organizational goals​) across the value-add chain and organizational A. また、利害関係者からの購入(AIがもたらす価値と、それが組織的な目標を達成するための障壁ではないことを強調することで達成できる)も必要です。 0.67
1 ​https://oecd.ai 2 ​https://icml.cc/Conf erences/2020/Schedul eMultitrack?event=5738 3 Gupta, A., & Galinkin, E. (2020). 1 https://oecd.ai 2 https://icml.cc/Conf erences/2020/Schedul eMultitrack?event=57383 Gupta, A., & Galinkin, E. (2020)。 0.69
Green Lighting ML: Confidentiality, Integrity, and Availability of Machine Learning Systems in Deployment. Green Lighting ML: デプロイにおける機械学習システムの機密性、完全性、可用性。 0.83
arXiv preprint arXiv:2007.04693. arXiv preprint arXiv:2007.04693 0.71
4 4 0.85
英語(論文から抽出)日本語訳スコア
tweaks that ​empower the stakeholders to take necessary action that can move them and their teams towards building more responsible AI systems. 利害関係者がより責任のあるAIシステムを構築するために、彼らとそのチームを動かすために必要な行動を取るための調整。 0.59
3. Effective translation of abstract standards into actionable engineering practices 3. 抽象標準の効果的なエンジニアリング実践への変換 0.81
Montreal AI Ethics Institute モントリオールAI倫理研究所 0.66
a. And finally a translation of the myriad standards, policies, principles, guidelines, and regulations into more ​actionable ​measures that are tied to engineering workflows will help in the integration of these notions into our everyday practices. A. そして最後に、エンジニアリングワークフローに関連する無数の標準、ポリシー、原則、ガイドライン、および規制をより実行可能な手段に翻訳することで、これらの概念を日々のプラクティスに統合するのに役立ちます。 0.69
In addition to specific comments on the various points highlighted in the Document, which is what we begin this report with, we also make some proposals along the lines of: ドキュメントで強調されているさまざまな点に関する具体的なコメントに加えて、このレポートでは次のように提案しています。 0.66
1. Learning, knowledge, and information exchange 2. 1. 学習、知識、情報交換2。 0.75
The Three Ways of Responsible AI 3. 責任あるAIの3つの方法。 0.65
Empirically-driven risk-prioritization matrix 4. 経験に基づくリスク優先行列4 0.57
Achieving the right level of complexity 正しいレベルの複雑さを達成する 0.81
that we believe will help improve the efficacy of the measures outlined in the Document. 文書に概略した措置の有効性の向上に役立つと我々は信じている。 0.72
All of our comments on the specific ideas in the Document are embedded in the above framework to help contextualize our recommendations. ドキュメント内の特定のアイデアに関するコメントはすべて、上記のフレームワークに埋め込まれているので、推奨事項のコンテキスト化に役立ちます。 0.65
Each of the areas follow the template of defining what we mean by that area, why it is needed, what it will look like, how to put it into practice, and how to measure the impact. それぞれの領域は、その領域で何を意味するのか、なぜ必要か、どのように見えるか、どのように実践するか、どのように影響を測定するかというテンプレートに従っています。 0.74
This framework we believe will be essential in bolstering the focus on operationalization of the measures highlighted in the Document. このフレームワークは、ドキュメントで強調された措置の運用化に重点を置く上で不可欠であると考えています。 0.67
We expand on these in this report and provide more details on how it will aid in the principles, gaps, and future research directions as articulated in the Document. このレポートでこれらを拡張して、ドキュメントで説明されている原則、ギャップ、今後の研究方向性をどのように支援するかを詳しく説明します。 0.62
Reiterating our strong endorsement of the ideas highlighted in the Document from the NSCAI, we hope that this report aids the iteration process of the Document and we are available and eager to work with the NSCAI and other US Government Agencies to ​make Responsible AI the Norm rather than the Exception​. NSCAIの文書で強調されたアイデアを強く支持し、このレポートがドキュメントの反復プロセスを支援することを願っています。我々は、NSCAIや他の米国政府機関と協力して、責任あるAIを例外ではなくノームにすることを熱望しています。 0.63
Abhishek Gupta Founder and Principal Researcher, Montreal AI Ethics Institute Machine Learning Engineer and CSE Responsible AI Board Member, Microsoft 創設者でプリンシパル研究者のAbhishek Gupta氏、モントリオールAI倫理研究所の機械学習エンジニア、CSE Responsible AI Boardメンバー、Microsoft 0.83
5 5 0.85
英語(論文から抽出)日本語訳スコア
Some general comments Organizational Montreal AI Ethics Institute 概論 組織 モントリオールAI倫理研究所 0.52
b. 1. Within each of the services that have been identified as the beachhead adopters for the the bだ 1. 各サービスの中で、ビーチヘッドアダプターとして識別されています。
訳抜け防止モード: bだ 1. それぞれのサービスの中で ビーチヘッドの養子として 特定されてきました
0.75
a. As it will help those individuals prepare and lay down the groundwork for A. それらの個人が 基礎工事の準備や準備をするのに役立ちます 0.66
measures and recommendations made in the Document, individuals who will be in-charge​ is going to be important: integrating these ideas into their organization’s work It will also provide for public accountability mechanisms that will help external stakeholders get a sense of the concrete progress that is going to be made on the implementation of the ideas in the Document. これらのアイデアを組織の仕事に統合することで、外部の利害関係者がドキュメント内のアイデアの実装でなされる具体的な進捗状況を理解するのに役立つ公開説明責任メカニズムも提供します。
訳抜け防止モード: 文書に記載された措置や勧告,参加する個人 – 責任は重要になるでしょう。 これらのアイデアを組織の仕事に統合する また、外部利害関係者が具体的な進捗状況を理解するのに役立つ公開説明責任メカニズムも提供します。 ドキュメント内のアイデアの実装について行われます。
0.67
2. Sharing the criteria for the selection of these organisations will also be important from a public trust building perspective since this was a comment that emerged in the workshops repeatedly as a concern. 2. ワークショップで繰り返し取り上げられるコメントであるため、これらの組織の選択基準を共有することも、公共の信頼構築の観点からも重要です。
訳抜け防止モード: 2. これらの組織の選定基準を共有すること 公共の信頼構築の観点からも重要です これは問題としてワークショップで繰り返し取り上げられたコメントである。
0.73
3. There would need to be a ​balance between the flexibility offered to the different US Government agencies and the degree of prescription so that there isn’t too much leeway a. 3. 異なる米国政府機関に提供される柔軟性と処方の程度との間にバランスをとる必要がある。
訳抜け防止モード: 3. 異なる米国政府機関に提供される柔軟性のバランスをとる必要があります。 処方箋の度合いは あまりにも多くの余韻はありません。
0.74
On the one hand too much prescription might hamper emergent efforts from the 処方薬が多すぎると 創意工夫の妨げになるかもしれない 0.56
​identification of organizations on the ground as they field AI systems. 識別; 識別 地上の組織は、AIシステムをフィールドにします。 0.70
4. The earlier that 4. それ以前のこと 0.78
b. But, having inconsistency in application of these standards will also limit the the US bだ しかし、これらの標準の適用に矛盾があることは、米国を制限します 0.73
usefulness in getting a strong Responsible AI posture across all Government agencies. すべての政府機関で強力な責任あるAI姿勢を得るのに役立つ。 0.70
there is ​shared vocabulary developed across the different US Government agencies​, the more likely it is that the efforts happening across the board can support and bolster each other. さまざまな米国政府機関で開発された共通語彙は、取締役会全体で行われている取り組みがお互いを支援し、強化することができる可能性が高いです。 0.67
a. Building on the above point, when the following terms are used in the Document, robust, and understandable, having more accessible trustworthy, definitions that take into particular consideration that audience from whose perspective we are considering reliability, as an example, will help those charged with putting these ideas into practice with more clear guidance on which aspects of these ideas to prioritize. A. 上記の点に基づいて、次の用語が文書で使用され、堅牢で理解しやすく、よりアクセスしやすい信頼性を有する場合、例えば、信頼性を検討している観客がこれらのアイデアを実践する上で、これらのアイデアのどの側面を優先すべきかをより明確に指導するのに役立つことを特に考慮した定義。 0.73
reliable, b. This will also help the ​checks and balances ​system operate more efficiently by judging when there might be a violation of the different agreed upon definitions as they relate to Responsible AI. 信頼できる bだ これはまた、Responsible AIに関連する異なる合意された定義に違反があるかどうかを判断することで、チェックとバランスシステムのより効率的な運用を支援する。 0.69
5. While the Document does mention training of the workforce as a critical requirement, we would like to reiterate the importance of training that accounts for human-computer interaction in a way that makes the human operators and collaborators with the 5. この文書では、労働力の訓練を重要な要件として言及しているが、人間とコンピュータの相互作用を説明する訓練の重要性を、人間のオペレーターと協力者とを結びつける方法で繰り返し強調したい。 0.75
6 6 0.85
英語(論文から抽出)日本語訳スコア
automated systems competent automation bias or algorithmic aversion . 自動化システム 自動化バイアスまたはアルゴリズム回避。 0.78
they ​don’t suffer from either a. 彼らはどちらかに苦しむことはありません。 0.58
The token human problem is definitely something we would want to avoid in this case, as highlighted famously in the Air France 447 fatal crash where the crew was ill-prepared for a handover when the automated system disengaged . 自動システムが停止したとき、搭乗員がハンドオーバのために準備不足だったair france 447の死亡事故で有名になったように、このケースでは人間の問題は避けたいものだ。 0.73
to the point that 6 要するに あれ 6 0.66
4 5 Montreal AI Ethics Institute 4 5 モントリオールAI倫理研究所 0.79
b. This also relates to the articulation of the performance standards and metrics as highlighted in the Document. bだ これはまた、ドキュメントで強調されたパフォーマンス標準とメトリクスの明瞭化にも関係しています。 0.67
The staff needs to be trained adequately to be able to interpret these metrics correctly and make informed decisions based on them. これらのメトリクスを正しく解釈し、それに基づいて決定を下すためには、スタッフを適切に訓練する必要があります。 0.56
c. When it comes to training, having things like ​Guess the Correlation ​would be quite useful so that people develop a better understanding of probabilities because it has been demonstrated time and again that people struggle from understanding those well. c) トレーニングに関して言えば、Guessのようなものを持つことは、相関関係が極めて有用であり、人々が確率をよりよく理解できるようにします。
訳抜け防止モード: c. トレーニングに関しては、相関関係を推測するようなことが、確率の理解を深める上で非常に有用である。 人々はそれらの良い理解に苦しむことが何度も示されてきた。
0.77
7 e. d. Understanding of both the fundamental concepts and the high-level concepts in terms of how the system components interact with each other is important for the efficient collaboration of human operators with their machine counterparts. 7 e. d.システムコンポーネントが相互に相互作用する方法に関する基本的な概念とハイレベルな概念の両方を理解することは、人間のオペレータとその機械との効率的なコラボレーションにとって重要です。 0.84
In addition, training to recognize human cognitive biases so that human operators working with machines can recognize where they might be succumbing to them will help to increase the efficacy of the other measures that are going to be put in place. さらに、機械で作業する人間のオペレータがどこに潜んでいるのかを認識できるように、人間の認知バイアスを認識するためのトレーニングは、実施される他の措置の有効性を高めるのに役立ちます。 0.79
f. With these points in mind, an examination of the human-human interface as mediated by machines might also warrant investigation and research to make them more amenable to achieving the goals of Responsible AI. f) これらの点を念頭に置いて、機械が介在する人間と人間のインターフェースの検証は、それらが責任あるAIの目標を達成するための調査や研究の義務を負う可能性がある。 0.62
6. The Document already highlights the alignment that exists between the measures and ideas proposed in the Document with the DoD principles in the Appendix, a more detailed analysis of any other principles and approaches adopted by the other US Government agencies should also be considered and shared with the public to build trust and confidence in the ability of all the agencies to work as a ​harmonized system​. 6. この文書は、文書に提案されている措置と考え方と、AppendixのDoD原則との整合性を既に強調しており、他の米国政府機関が採用する他の原則やアプローチをより詳細に分析し、すべての機関が調和システムとして機能する能力に対する信頼と信頼を構築するために、国民と共有するべきである。 0.84
is surrounding defense and nondefense uses specifically in relation to the thoroughness with which the Responsible AI principles will be applied. は、レスポンシブルAIの原則が適用される徹底に関連して特に、防御と非防衛の使用を取り巻くものです。 0.66
​more explicit enunciation in the Document 文書のより明示的な賛辞 0.78
7. Something that could bear 7. 耐えることができる何か 0.67
8. Augmenting the already mentioned measures in the Document, we also recommend the inclusion of a “bug bounty” program that can centralize the communication of failure modes and instances so that there is a shared understanding of how and where the systems go wrong and tapping into network-wide expertise to address those failures. 8. 障害モードとインスタンスの通信を集中化して、システムがどのように、どこで機能するのかを共通理解し、それらの障害に対処するためのネットワーク全体の専門知識を活用する”バグ報奨金”プログラムの導入も推奨しています。 0.72
This can be bolstered through the use of the LKIE as elucidated in this report. この報告では、LKIEの使用により、これを裏付けることができる。 0.60
a. This is of great importance because AI systems smoothen out small errors while making larger, more catastrophic errors much more likely and they can surface in A. これは、AIシステムが小さなエラーを滑らかにし、より大きな、より破滅的なエラーをずっと起こりやすくし、表面化できるため、非常に重要なことです。
訳抜け防止モード: A. これはとても重要です AIシステムは小さなエラーをスムースにし、より大きな破滅的なエラーをずっと起こりやすいものにする 表面を覆い隠すことができます
0.73
4 Parasuraman, R., & Manzey, D. H. (2010). 4 Parasuraman, R., & Manzey, D. H. (2010)。 0.92
Complacency and bias in human use of automation: An attentional integration. 自動化の人的利用における複雑さとバイアス: 注意深い統合。 0.73
Human factors, 52(3), 381-410. 人間の要因、52(3)、381-410。 0.72
5 Dietvorst, B. J., Simmons, J. P., & Massey, C. (2015). 5 Dietvorst, B. J., Simmons, J. P., & Massey, C. (2015)。 0.96
Algorithm aversion: People erroneously avoid algorithms after seeing them err. アルゴリズム回避: errを見た後、人々は誤ってアルゴリズムを避けます。 0.66
Journal of Experimental Psychology: General, 144(1), 114. Journal of Experimental Psychology: General, 144(1), 114。 0.76
6 ​http://bea.aero/docs pa/2009/f-cp090601.e n/pdf/f-cp090601.en. pdf 7 ​http://guessthecorre lation.com/ 6 http://bea.aero/docs pa/2009/f-cp090601.e n/pdf/f-cp090601.en. pdf 7 http://guessthecorre lation.com/ 0.26
7 7 0.85
英語(論文から抽出)日本語訳スコア
9. unexpected ways making their prediction and preparation to counter their effects much harder. 9. 予期せぬ方法で予測と 効果に対抗する準備が ずっと難しいのです 0.81
Montreal AI Ethics Institute モントリオールAI倫理研究所 0.66
​codifying this as a requirement これを要件として定式化し 0.49
In working to incorporate value judgements in the selection of the objectives of the system, the Document mentions the involvement of diverse stakeholders, but we would the further add that organization will make it an inevitable part of the everyday processes rather than having to think about it in every instance when an AI system is being procured or developed. この文書では、システムの目的の選択に価値判断を組み込むために、多様なステークホルダーの関与について言及していますが、AIシステムが調達または開発されているすべてのインスタンスでそれを考えるのではなく、組織がそれを日常的なプロセスの一部にすることをさらに追加します。 0.69
a. A related concern is the problem of ​faux gatekeepers ​who may either claim to represent a community or have had past experiences in representing a community but don’t any longer either because of a shift in their own lived experiences and/or the evolution of the needs of that community in the first place. A. 関連する懸念は、コミュニティを代表すると主張するか、コミュニティを代表する過去の経験を持っているかもしれないが、自分自身の生活経験のシフトや、そもそもそのコミュニティのニーズの進化のために、もはやそうではない、偽のゲートキーパーの問題です。 0.72
b. Making sure that we are aware of these systemic failings will help to ensure that into a tokenization problem when considering the representation doesn’t inclusion of diverse stakeholders in making determinations about the objectives of the system. bだ これらの体系的な失敗に気付いていることは、表現を検討する際にトークン化問題に多様な利害関係者が含まれていないことを保証するのに役立ちますシステムの目的について決定します。 0.70
in the operations of fall 10. 作戦において 秋 10. 0.66
The capabilities and limitations of AI systems are fast-evolving and unevenly distributed across various ML subdomains and industry domains meaning that the ​trend prediction capabilities of the US Government agencies will be essential ​in the success of keeping the Responsible AI initiatives up-to-speed and ready to handle the emergent landscape. aiシステムの能力と制限は進化が速く、さまざまなmlサブドメインや業界ドメインに均等に分散しているため、米国政府機関のトレンド予測能力は、責任あるaiイニシアチブを高速に維持し、創発的な状況に対処する準備が整う上で不可欠である。 0.73
This can be achieved quite effectively through the proposed LKIE. これは提案されたLKIEを通じて非常に効果的に達成できる。 0.60
a. Related to this is the point of keeping an eye out on adjacent fields that might have faced similar challenges in the past and can serve as good models to learn and adapt from to create solutions to challenges in the field of AI, for example bioethics. A. これに関連して、過去に同様の課題に直面した可能性のある隣接する分野に注目し、AI分野、例えば生物倫理学における課題に対する解決策を作成するために学習し、適応するための良いモデルとして役立つことができる点です。 0.71
11. While diversity is a term that will constantly evolve to incorporate new social categories as they emerge in society, having a public rubric that shares how those considerations are incorporated into the various organizations will be important to build trust but also empower public accountability. 11. 多様性(diversity)は、社会に現れる新しい社会的カテゴリーを取り入れるために絶えず進化する用語である一方で、これらの考慮が様々な組織にどのように組み込まれているかを共有する公的なルーブリックを持つことは、信頼を築くだけでなく、公的な説明責任を高めるために重要である。
訳抜け防止モード: 11. 多様性(diversity)は、社会に現れる新しい社会的カテゴリーを取り入れるために絶えず進化する用語である。 様々な組織にこれらの考慮が組み込まれているかを共有する公的なルーブリックを持つさま 信頼の構築だけでなく、公的説明責任の強化も重要になります。
0.76
12. From a budgetary standpoint, making mandatory line items that relate to investigation and implementation of Responsible AI will help to make them more of a norm rather than the exception as we move towards normalizing these ideas within the work of the different US Government agencies. 12. 予算的観点からは、Responsible AIの調査と実施に関連する必須ライン項目を作成することは、異なる米国政府機関の作業の中でこれらのアイデアを正規化することに向かっている場合、例外ではなく、それらをより標準的なものにするのに役立ちます。 0.71
Technical 1. When thinking about risk assessments as mentioned in the Document, there is also the potential to ​separate out those considerations into risk and impact assessments which will comprise different elements giving more holistic coverage. 技術 1. 文書で述べたようにリスクアセスメントについて考えるとき、これらの考慮事項をリスクおよび影響アセスメントに分離する可能性もあります。
訳抜け防止モード: 技術 1. 文献で述べたようにリスクアセスメントを考えるとき 可能性もあります これらの考慮事項を、より総合的なカバレッジを与えるさまざまな要素からなるリスク評価と影響評価に分離する。
0.80
The work titled 8 作品タイトルは 8 0.75
英語(論文から抽出)日本語訳スコア
Montreal AI Ethics Institute モントリオールAI倫理研究所 0.66
Examining the Black Box: Tools for Assessing Algorithmic Systems ​as summarized and analyzed here provides more information on this approach. Black Box: ここで要約して分析したアルゴリズムシステムを評価するツールは、このアプローチに関するさらなる情報を提供する。 0.79
8 2. For all of the technical measures mentioned in the Document, an ​emphasis on their viability and effectiveness​ is going to be for which the LKIE as mentioned later in this report will be a critical instrument. 8 2. 文書に記載されているすべての技術的措置については、後述のLKIEが重要な手段となるため、その実用性や有効性に重点が置かれる予定である。 0.81
3. For each of the metrics and technical measures mentioned in the Document, we advocate for the ​use of measurable outcomes against which success can be determined. 3. 文書に記載されている各指標および技術的措置については、成功を決定することができる測定可能な結果の使用を提唱します。 0.81
a. From a practical standpoint it will help in adherence and prevent from burn-out or desensitization because it might be perceived as a huge, unsolvable, intractable problem in trying to achieve Responsible AI. A. 実用的な見地からすると、責任あるaiを実現する上で、巨大な、解決不能な、難解な問題と見なされるため、燃え尽きや無感化を防ぐのに役立つだろう。 0.68
4. 5. 6. In support of the technical measures proposed in the document, we would like to call out particular attention to the responsibility that the US Government agencies can take on in creating more public benchmarks against which AI systems can be evaluated​. 4. 5. 6. 文書で提案された技術的な措置を支持するために、私たちは、米国政府機関がAIシステムが評価できるより多くの公開ベンチマークを作成するために取り組むことができる責任に特に注意を呼びかけたいと思います。 0.81
A great example of this is the FRVT from NIST . この素晴らしい例は、NIST の FRVT です。 0.66
9 a. Documentation of the assumptions and limitations of the benchmarks so created will also be essential in helping those utilizing them to make sure that they will get the intended intelligence from it rather than becoming falsely confident about the system. 9時。 作成したベンチマークの仮定と制限の文書化は、システムについて誤った自信を持つのではなく、意図した知性を得るようにそれらを利用する人々を支援するためにも不可欠です。 0.61
In some of the techniques that have been proposed as active measures or future areas of research, it would be useful for those utilizing the document to ​have case studies where those techniques have worked and more importantly where they haven’t so that they can make appropriate determinations of which techniques to pick. アクティブな測定方法や今後の研究分野として提案されているいくつかのテクニックでは、これらのテクニックが動作しているケーススタディや、どのテクニックを選択するべきかを適切に判断できないケーススタディが、ドキュメントを利用する人たちにとって有用である。 0.77
In the section on LKIE, we elaborate on a few mechanisms that will enable this knowledge to be widely dispersed within the US Government agencies network. lkieのセクションでは、この知識を米国政府機関ネットワーク内で広く分散させることができるいくつかのメカニズムについて詳述している。 0.70
In relation to the point of perhaps not using AI systems in certain scenarios, we also there be ​clear mechanisms for disengaging and deactivating the propose that system when things go wrong​. 特定のシナリオでAIシステムを使用しない点に関しては、問題が発生した時に提案を展開・無効化するための明確なメカニズムも存在します。 0.74
This means building failsafes and backup modes that don’t have to rely on continuous access to the “intelligent” elements and have graceful failures that minimize harm. つまり、フェイルセーフとバックアップモードを構築することによって、“インテリジェント”な要素への継続的なアクセスを必要とせず、害を最小限に抑える優雅な障害が発生する。
訳抜け防止モード: これは、フェイルセーフとバックアップモードが持たないことを意味する インテリジェントな要素への継続的なアクセスに頼る 危害を最小限に抑える優雅な失敗をしました
0.69
This is already something that is practised in many of the warfighting systems built by the US Government agencies and borrowing from those principles to put them into practice here will aid the process of building more robust, reliable, and safe AI systems. これは既に、米国政府機関が構築し、これらの原則を取り入れて、より堅牢で信頼性があり、安全なAIシステムを構築するプロセスを支援するために、多くの戦闘システムで実践されているものだ。 0.77
a. The handovers between humans and machines, as mentioned in the Document, should be done in a way where we correctly optimize for their relevant strengths and weaknesses . A. 文書で述べたように、人間と機械の間のハンドオーバは、それらの強みと弱みを正しく最適化する方法で行われるべきです。 0.73
10 7. As brought up in the discussions in the workshop, participants pointed out that there is a need for having more refinement on what is meant by feedback when used in various 10 7. ワークショップのディスカッションで紹介されたように、参加者は様々な場面でフィードバックが意味するものをより洗練する必要があると指摘した。 0.81
8 ​https://atg-abhishek .github.io/actionabl e-ai-ethics/examinin g_the_black_box.html 9 ​https://www.nist.gov /programs-projects/f ace-recognition-vend or-test-frvt 10 Wilder, B., Horvitz, E., & Kamar, E. (2020). 8 https://atg-abhishek .github.io/actionabl e-ai-ethics/examinin g_the_ black_box.html 9 https://www.gov/ programs-projects/fa ce-recognition-vendo r-test-frvt 10 Wilder, B., Horvitz, E., & Kamar, E.(2020)。 0.43
Learning to Complement Humans. 人間を補うことを学ぶ。 0.57
arXiv preprint arXiv:2005.00582. arXiv preprint arXiv:2005.00582。 0.64
9 9 0.85
英語(論文から抽出)日本語訳スコア
the Document, perhaps disambiguating both the social and technical 社会と技術の両方を曖昧にしている文書 0.75
parts of connotations in their use and integration into the AI lifecycle. 使用とAIライフサイクルへの統合に関する意味の一部。 0.66
8. As some of the techniques have been mentioned by name in the ​Engineering Practices section, the participants from the workshop also brought up the idea of having more domain and department specific guidance that would further lower the barrier for implementing these ideas in practice. 8. 技術の一部がエンジニアリングプラクティスのセクションで名前で言及されているように、ワークショップの参加者は、これらのアイデアを実践する障壁をさらに低くするより多くのドメインと部門固有のガイダンスを持つことも考えました。 0.80
Montreal AI Ethics Institute モントリオールAI倫理研究所 0.66
Community 1. When taking into account due process, in line with the overarching principles of the Document to uphold American values and Rule of Law, a consideration to keep in mind is ​how the second- and third-order effects of utilizing AI within a system might limit the capability to uphold the rule of law, specifically due process, because of lack of comprehension on the part of the defendants and those who are charged with making decisions. コミュニティ 1. 義務プロセスを考慮する場合、米国の価値と法則を支持する文書の重大原則に沿って、システム内でAIを利用する第2および第3次効果は、被告人の部分に対する理解の欠如と決定を下す責任がある人のために、法律の規則、特に義務プロセスを維持する能力を制限する可能性があることを心に留めておく必要があります。
訳抜け防止モード: コミュニティ 1. 適正な手続きを考慮に入れたときは,文書の概略原則に従って アメリカの価値観と法の支配を擁護する 留意すべき考慮事項は、システム内でAIを利用することによる第2および第3の順序効果が、被告側の理解が欠如しているため、法の支配、特にデュープロセスの維持能力を制限する方法である。 決定を下す責任を負う人々です
0.80
11 a. This can happen often when there is a gap between the level of intelligibility offered by the mechanisms in the system vs. the capabilities that the individuals have in terms of their background and training to interpret the outputs from the AI systems. 11 A. これは、システム内のメカニズムによって提供される知能のレベルと、AIシステムからの出力を解釈するための個人がバックグラウンドとトレーニングの観点から持っている能力との間にギャップがある場合にしばしば起こります。 0.80
b. Some of these ideas are further elaborated in the work titled ​Different Intelligibility for Different Folks ​that recommends tailoring the process to meet those needs as an explicit requirement. bだ これらのアイデアのいくつかは、明示的な要件としてニーズを満たすためにプロセスを調整することを推奨する、異なる人々に対する異なる知性」というタイトルで、さらに詳しく述べられている。 0.60
2. A recurring concern in the workshop discussions surrounded ​the lack of transparency in terms of how the documentation as mentioned in the Document would be shared publicly​, especially in light of the recommendations of having external audits, this is something that will be crucial to building a high-degree of public trust. 2. ワークショップの議論で繰り返される懸念は、ドキュメントで言及されているドキュメントの公開方法についての透明性の欠如を取り上げている。特に外部監査の推奨を踏まえると、これは高いレベルのパブリック信頼を確立する上で不可欠である。 0.76
a. While some information will have to be kept private for national security reasons, defaulting to keeping the information publicly accessible for higher scrutiny and the systems under evaluation will aid in more thorough evaluation of consideration as people will have the opportunity to share more insights than would otherwise be possible through a single audit. A. 一部の情報は国家安全保障上の理由から非公開にしておく必要があるが、デフォルトでは情報をより精査のために公開し、評価中のシステムは、人々が単一の監査を通じて可能以上の洞察を共有する機会があるので、考慮のより徹底した評価に役立ちます。 0.76
b. Making the classification system public that will be used to present and share the audit reports and other documentation as outlined in the Document will also be essential in building public trust. bだ 監査報告やその他の文書を公開し、公開するために使用する分類システムを公開することは、公的信頼を構築する上でも不可欠である。
訳抜け防止モード: bだ 分類体系を公にすること ドキュメントに概説されている監査報告やその他のドキュメントを提示し、共有するために使用される。 公的信頼の構築にも不可欠です
0.76
3. Acknowledging that this document is meant to serve the US Government agencies, we would recommend ​analyzing the emphasis on American Values in conjunction with that focus’ impact on how it shapes the interaction with the key allies of the US. 3. この文書は米国政府の機関に役立てることを目的としていることを認め、米国の主要同盟国との相互作用をどう形作るかに焦点を合わせ、アメリカ価値に重点を置くことを推奨する。 0.79
a. Building on this idea, what would be the means of engagement and there is a A. このアイデアに基づいて、エンゲージメントの手段は何ですか?
訳抜け防止モード: A. このアイデアに基づいて構築する。 エンゲージメントの手段と あります
0.62
disengagement on the part of disengagement (複数形 disengagements) 0.57
the US Government agencies if 米国政府の機関は、もしも 0.65
11 Zhou, Y., & Danks, D. (2020, February). 11 Zhou, Y., & Danks, D. (2020, February)。 0.86
Different" Intelligibility" ; for Different Folks. 異なる人々のための「異なる」知性。 0.70
In Proceedings of the AAAI/ACM Conference on AI, Ethics, and Society (pp. AAAI/ACM Conference on AI, Ethics, and Society (pp。 0.62
194-199). 10 194-199). 10 0.82
英語(論文から抽出)日本語訳スコア
Montreal AI Ethics Institute モントリオールAI倫理研究所 0.66
difference between the values and principles adopted by these agencies vis a vis the counterparties who might come from different ideological and political contexts. これらの機関が採用する価値観と原則の相違は、異なるイデオロギーと政治の文脈から来る可能性のある相手を確証する。 0.59
4. As articulated in the Document, a paramount consideration should be ​whether AI should be used at all. 4. ドキュメントに記載されているように、AIをまったく使用すべきかどうかが最重要事項である。 0.71
This emerges from discussions around how sometimes simpler, explainable models have ​nearly ​the same performance as the more complex models. これは、よりシンプルで説明可能なモデルがより複雑なモデルとほとんど同じパフォーマンスを持つ場合の議論から生まれる。 0.82
5. An active consideration should be the degree of onus which some of these requirements will place, especially in the procurement process which might reduce market competitiveness. 5. 積極的な考慮事項は、特に市場競争力を低下させるような調達プロセスにおいて、これらの要求のいくつかが成立するオンスの度合いであるべきである。
訳抜け防止モード: 5. アクティブな考慮事項は、これらの要件のいくつかが実行されるオンスの度合いであるべきです。 特に 市場競争力を低下させる 調達プロセスにおいて
0.76
This is not to say that we must compromise on the safety of these systems but more so that in places where there is a high burden, ​perhaps it is an opportunity to create public commons with the tooling that will help others build on the work that the US Government agencies do in ensuring Responsible AI. これは、これらのシステムの安全性を妥協しなければならないと言うのではなく、高い負担がある場所では、おそらく他の人が責任あるAIを確保するために米国の政府機関が行う仕事を構築するのに役立つツールで公共のコモンズを作成する機会です。 0.75
6. Community norms around what is acceptable and what isn’t change over time and given the especially long shelf-life of government run systems, we advocate for building in flexibility to adopt the disallowed outcomes as mentioned in the report and having a way to keep them up-to-date over time. 6. 許容されるものや、時間とともに変化しないものに関するコミュニティの規範、特に政府運営システムの長寿を考えると、私たちは、報告書で述べたような許容されない結果を採用するための柔軟性の構築と、それを時間とともに最新に保つ方法の確立を提唱します。 0.73
In terms of communication of the ideas from this and other US Government agencies’ efforts, the framing and language should be collaborative rather than competitive (for example, the use of the term “arms race” is commonplace in the ecosystem) which will aid in mutually beneficial collaborations and development to move us towards Responsible AI. これと他の政府機関からのアイデアのコミュニケーションに関して言えば、フレーミングと言語は競争ではなく協力すべきであり(例えば、エコシステムでは「武器種族」という用語が一般的である)、相互に有益なコラボレーションと開発が私たちを責任あるaiに移行させるのに役立つ。 0.70
7. 8. Working hand-in-hand with industry efforts will also accelerate the adoption and implementation of Responsible AI and organizations like Microsoft are already doing so by way of sharing their expertise and insights publicly. 7. 8. 業界の努力と連携することで、Responsible AIの採用と実装も加速し、Microsoftのような組織は、彼らの専門知識と洞察を公に共有することですでに実施しています。 0.74
9. Communication with the general public in terms of how AI systems are being used in the US Government agencies will also be essential to provide the right level of insights to them and break away from the trope of “killer robots” and other ill-informed narratives on how AI is used within the government. 9. 米国の政府機関でAIシステムがどのように使用されているかに関して、一般大衆とのコミュニケーションは、彼らに適切なレベルの洞察を提供し、「キラーロボット」やその他の政府内でのAIの使用方法に関する不当な情報による物語から切り離すためにも不可欠です。 0.79
10. Another aspect of communication that we felt is important is addressing (and dispelling) unwarranted misrepresentations of superintelligence, its emergence, and the potential threats posed by that given how distant and perhaps unlikely it is. 10. 私たちが重要と感じたコミュニケーションのもう1つの側面は、超知性、その出現、そしてそれがいかに遠く、おそらくありそうにないものであるかを考えることによって生じる潜在的な脅威の、不当な誤った表現に対処する(そして排除する)ことである。 0.69
We include this here as it was something that was brought up as a point in the workshop discussions where participants were concerned that there wasn’t a mention of how those will be addressed by the US Government agencies. 参加者が米国の政府機関によってどのように対処されるかについて言及されていないことを心配していたワークショップの議論のポイントとして持ち出されたものです。 0.59
Learning, Knowledge, and Information Exchange (LKIE) 学習・知識・情報交換(LKIE) 0.67
1. What is it? 1. それは何ですか? 0.79
11 11 0.85
英語(論文から抽出)日本語訳スコア
Montreal AI Ethics Institute モントリオールAI倫理研究所 0.66
a. The LKIE is a way to accelerate organizational knowledge which is crucial for some of the measures outlined in the Document; specifically, there is a dire need to ensure that we have a way to leverage collective insights that are gleaned through on-the-ground practice rather than letting them sit in silos across the various arms of the US Government where the measures will be put into practice. A. LKIEは、文書に概説されている措置のいくつかに欠かせない、組織的な知識を加速させる手段であり、具体的には、措置が実施される米国政府の様々な機関のサイロに座り込ませるのではなく、地上での実践を通じて改善された総合的な洞察を活用する方法が確実に必要である。 0.71
b. Having something to the effect of ​Responsible AI Champs​who are “socializers” this knowledge will help to transfer knowledge across the different US bだ の責任あるAIシャンプの効果に何かを持てば、この知識は異なる米国全体で知識を伝達するのに役立ちます。 0.68
of Government agencies. c. There are a lot of lessons that are learned from hands-on deployments and a lot 政府機関の略。 c. 実践的なデプロイメントから学ぶべき教訓はたくさんあります。
訳抜け防止モード: 政府機関の略。 c. 手から学んだ教訓はたくさんあります - デプロイメントについて 多くは
0.65
of them are ​transferable across domains​. いずれもドメイン間で転送可能である。 0.64
d. Creating a ​repository of use cases and associated guidance on how those challenges were addressed, say for example the benefits and shortcomings of using ART , SmartNoise , Aequitas , etc. d) ユースケースのリポジトリの作成と,それらの課題に対する対処方法に関するガイダンス。例えば,artやsmartnoise,aequitasなどを使用するメリットや欠点などだ。 0.78
in practice 12 実際には 12 0.70
e. Also, ​surfacing and sharing best practices that are actionable through this learning exchange will also help to move the idea of responsible AI from being a fuzzy notion (which is how some technical stakeholders see it) into something that is steeped in engineering fundamentals (at the same time not abandoning the social dimensions of these challenges). また、この学習交換を通じて行動可能なベストプラクティスを表面化して共有することは、責任あるAIの概念をファジィな概念(技術的ステークホルダーがそれを見る方法)から、エンジニアリングの基本(同時にこれらの課題の社会的側面を放棄しない)に移行するのにも役立ちます。 0.73
14 13 2. 14 13 2. 0.85
Why is this needed? a. なぜこれが必要か? A. 0.82
Reducing redundancy i. 冗長性を減らす 私は... 0.48
ii. iii. As an example, we might have several groups across the various US Government agencies that are working on NLP applications, when it comes to mitigating bias, there are tried-and-tested techniques that one department might figure out which we can share with others so that we don’t start from scratch every time we want to address bias mitigation in NLP applications. 私は... iii 例えば、米国のさまざまな政府機関でNLPアプリケーションに取り組んでいるグループがありますが、バイアスの軽減に関しては、NLPアプリケーションでバイアスの軽減に取り組むたびにゼロから開始しないように、ある部門が他の部門と共有できることを理解できる試行錯誤のテクニックがあります。 0.48
Specifically, we would want to avoid the need (as much as possible) in using techniques that are known to have failures that other teams have discovered because they are ahead in the deployment and testing of those techniques. 具体的には、これらのテクニックのデプロイとテストに先んじているため、他のチームが発見した失敗が知られているテクニックを使用する必要性(可能な限り)を回避したいと考えています。 0.72
This is inline with the recommendations made in the Document on having robust testing and monitoring infrastructure in place to ensure Responsible AI. これは、Responsible AIを保証するための堅牢なテストと監視インフラストラクチャの配置に関するDocumentの勧告と一致している。 0.66
12 ​https://github.com/T rusted-AI/adversaria l-robustness-toolbox 13 ​https://docs.microso ft.com/en-us/azure/m achine-learning/conc ept-differential-pri vacy 14 ​https://github.com/d ssg/aequitas 12 https://github.com/T rusted-AI/adversaria l-robustness-toolbox 13 https://docs.microso ft.com/en-us/azure/m achine-learning/conc ept-differential-pri vacy 14 https://github.com/d ssg/aequitas 0.27
12 12 0.85
英語(論文から抽出)日本語訳スコア
Montreal AI Ethics Institute モントリオールAI倫理研究所 0.66
b. Accelerating the deployment of Responsible AI bだ Responsible AIの展開を加速する 0.79
i. ii. 私は... 私は... 0.30
iii. iv. Often the integration of responsible AI principles is seen as a ​hindrance ​to the rapid deployment of products and service because of the additional work that is required in researching and experimenting to find the techniques that might work well. iii ivだ しばしば、責任あるAIの原則の統合は、うまく機能する技術を見つけるための研究と実験に必要な追加の作業のために、製品とサービスの迅速な展開への障害とみなされます。 0.69
Such an exchange can short-circuit the discovery process and make it easier for practitioners to include responsible AI as an integral part of their AI lifecycle. このような交換は、発見プロセスを短絡し、実践者が責任あるAIをAIライフサイクルの不可欠な部分として簡単に組み込むことができます。 0.66
It can also help to boost the confidence that both technical and non-technical stakeholders have in the capabilities of the deployed techniques rather than having to guess the efficacy of the methods. また、技術ステークホルダーと非技術ステークホルダーの両方が、メソッドの有効性を推測するよりも、デプロイされたテクニックの能力を持てるという自信を高めるのにも役立ちます。 0.67
A point that was brought up both in the workshop discussions that we hosted and in internal deliberations on the Document was being able to adequately demonstrate and evoke trust from various stakeholders which can be developed through such a process: by highlighting what techniques were considered and justifying why certain choices were made supplemented with empirical evidence, one has a higher chance of building trust. 私たちがホストしたワークショップの議論と、ドキュメントに関する内部審議の両方で提起されたポイントは、そのようなプロセスを通じて開発できる様々な利害関係者からの信頼を適切に示し、誘発することができることである: どのようなテクニックが検討されたかを強調し、なぜ特定の選択が実証的な証拠で補足されたかを正当化することで、信頼を構築する可能性が高くなる。
訳抜け防止モード: 私たちが主催したワークショップの議論とドキュメント内部の議論の両方で取り上げられたポイント 様々な利害関係者からの信頼を 適切に証明し 引き起こすことができ -どのような技法が検討されたかを強調し、なぜ特定の選択を実証的な証拠で補うのかを正当化する。 信頼を築ける可能性は高い
0.76
3. What will it look like? 3. どんな風に見えますか? 0.75
a. RSS feed-like subscriptions a.RSSフィードのようなサブスクリプション 0.47
i. ii. 私は... 私は... 0.30
Linking into the US Government agencies’ project management systems, having templates (somewhat akin to the Datasheets for Datasets and 15 Model Cards for Model Reporting ) that will be utilized to track the efficacy of the techniques that have been tried is a way to make this step more realistic. 米国政府機関のプロジェクト管理システムにリンクし、(データセット用のデータシートとモデルレポート用の15のモデルカードに類似した)テンプレートを使用して、試みられたテクニックの有効性を追跡することは、このステップをより現実的にする方法である。 0.82
The purpose for having a standardized template is to ease the tracking of information and make it more findable and accessible. 標準化されたテンプレートを持つ目的は、情報の追跡を簡単にし、より見つけやすくアクセスしやすくすることである。 0.71
This will have tagging for the industry domain, ML sub-domain, and other metadata that will be useful for surfacing relevant items. これにより、業界ドメイン、MLサブドメイン、および関連項目のサーフェースに役立つ他のメタデータのタグ付けが可能になります。 0.62
16 15 Gebru, T., Morgenstern, J., Vecchione, B., Vaughan, J. W., Wallach, H., Daumé III, H., & Crawford, K. (2018). 16 15 Gebru, T., Morgenstern, J., Vecchione, B., Vaughan, J. W., Wallach, H., Daumé III, H., & Crawford, K. (2018)。 0.87
Datasheets for datasets. データセットのデータシート。 0.67
arXiv preprint arXiv:1803.09010. arXiv preprint arXiv:1803.09010 0.71
16 Mitchell, M., Wu, S., Zaldivar, A., Barnes, P., Vasserman, L., Hutchinson, B., ... & Gebru, T. (2019, January). 16 Mitchell, M., Wu, S., Zaldivar, A., Barnes, P., Vasserman, L., Hutchinson, B., ... & Gebru, T. (2019, January)。 0.90
Model cards for model reporting. モデルレポート用のモデルカード。 0.84
In Proceedings of the conference on fairness, accountability, and transparency (pp. Proceedings of the conference on fairness, accountability, and transparency (pp。 0.72
220-229). 13 220-229). 13 0.82
英語(論文から抽出)日本語訳スコア
Montreal AI Ethics Institute モントリオールAI倫理研究所 0.66
iii. Then, when we have engineering teams embarking on a new project, they can ​subscribe ​to this exchange with particular tags and receive up-to-date information from across the organization on the techniques that have been tried already, what worked, what didn’t, and tips and tricks in effective deployment of those techniques. iii そして、新しいプロジェクトを始めるエンジニアリングチームがいると、彼らはこの交換を特定のタグで購読し、すでに試された技術、何がうまくいかなかったか、そのテクニックを効果的に展開するためのヒントやヒントについて、組織全体から最新の情報を受け取ることができます。 0.63
b. Engineering focused discussion fora bだ エンジニアリングにフォーカスした議論 0.71
i. ii. 私は... 私は... 0.30
iii. Led by practitioners, around each of the templates that have been filled out, we will have discussions diving into the ​why ​and ​how ​for ​what​ was done. iii 実践者によって指導され、満たされたテンプレートのそれぞれを中心に、なぜ、どのように行われたのかを議論する。 0.57
1. We believe that this Golden Circle framework for contextualizing 1. コンテキスト化のためのゴールデンサークルの枠組みは 0.75
17 the work is critical in effective communication, especially in a system like the US Government agencies where there might be different styles of communication and working based on functional and regional differences. 17 効果的なコミュニケーション、特に米国政府機関のようなシステムでは、コミュニケーションのスタイルが異なり、機能的および地域的な違いに基づいて作業することが重要である。 0.81
These will be different from informal and abstract discussions that are had at the moment, since we would be highly use-case driven and particularly focused on the discussion of the gaps and challenges in the application of the techniques. 我々は非常にユースケース駆動であり、特に技術の適用におけるギャップと課題の議論に焦点を当てているため、これらは、現在行われた非公式および抽象的な議論とは異なります。 0.68
Tagging staff who volunteer to share their expertise will also be associated with the metadata in the templates to have convenient contact points for those who are willing to guide colleagues in their own deployments. 専門知識の共有を希望するスタッフのタグ付けもテンプレートのメタデータに関連付けられ、同僚のデプロイメントをガイドしたいと思う人たちに便利なコンタクトポイントを提供する。 0.75
c. Lived-experience community consultations c. 実体験型コミュニティコンサルテーション 0.57
i. ii. 私は... 私は... 0.30
In our work, we are no strangers to the importance of the sociotechnical considerations regarding the impacts of the work that we do. 私たちの仕事では、私たちが行う仕事の影響に関する社会技術的な考慮の重要性を知らない人ではありません。 0.69
When we don’t have internal staff with experiences on how the technology we develop can have consequences, we will utilize open fora to seek insights from those that have lived experiences and bring those back to assimilate into the templates and enhance the understanding of the issues over time for everyone. 私たちが開発する技術がどのような結果をもたらすかに関する経験を持つ社内スタッフがいない場合、オープンフォアを活用して、経験を積んだ人々からの洞察を求め、それらをテンプレートに同化させ、すべての人にとって時間の経過とともに問題の理解を高めます。 0.66
This will also serve the purpose of methodically bridging the chasms in our knowledge and provide clear research directions backed by evidence organizations like the JAIC, Office of Science and Technology Policy, and これはまた、JAIC、科学技術政策局などのエビデンス組織が支援する明確な研究指示を提供し、私たちの知識の混乱を体系的に橋渡しする目的にも役立ちます。 0.74
17 ​https://www.ted.com/ talks/simon_sinek_ho w_great_leaders_insp ire_action?language=en 17 https://www.ted.com/ talks/simon_sinek_ho w_great_leaders_insp ire_action? language=en 0.26
14 14 0.85
英語(論文から抽出)日本語訳スコア
iii. the National AI Initiative Office to embark on the research and development of tools and policies. iii 国家AIイニシアティブオフィスは、ツールとポリシーの研究と開発に着手する。 0.57
In addition, it will serve to build trust with external stakeholders that we indeed strive to keep their best interests at the core of our design, development, and deployment processes. さらに、私たちの設計、開発、デプロイメントプロセスの中核に、自分たちの利益を確実に維持するために、外部ステークホルダーとの信頼を構築するのにも役立ちます。 0.71
Montreal AI Ethics Institute モントリオールAI倫理研究所 0.66
4. How will it work in practice? 4. 実際にどのように動作するのか? 0.74
a. Integration into existing project management workflows A. 既存のプロジェクト管理ワークフローへの統合 0.75
i. ii. 私は... 私は... 0.30
iii. As a high-performing organization, team members have constant demands on their limited time and adding net new workflows to the processes can be onerous. iii ハイパフォーマンスな組織として、チームメンバーは制限された時間に常に要求を持ち、プロセスに新しいワークフローを追加するのは面倒です。 0.53
To ease adoption, deep and seamless integration into their existing workflows will be crucial. 導入を容易にするには、既存のワークフローへの深くシームレスな統合が不可欠です。 0.58
This can be done with the inclusion of progressive disclosures from a UX perspective for the technical and project management staff. これは、技術とプロジェクトマネジメントのスタッフに対するUXの観点からのプログレッシブな開示を含めることで実現できます。 0.84
That is, as the project progresses, we ​open ​new items within the template that need to be filled out, amortizing the requirements and onus over the lifecycle of the project. つまり、プロジェクトが進むにつれて、私たちは、プロジェクトのライフサイクルに関する要件とオンスを損なう必要のあるテンプレートの中に新しいアイテムを開きます。 0.70
In addition, this will serve the purpose of starting the whole process with micro-habits as a way to build ​muscle memory ​when it comes to exercising responsible AI practices on a regular basis, akin to how James Clear advocates building habits in his book ​Atomic Habits . さらにこれは、James Clear氏が著書Atomic Habitsで主張しているように、責任あるAIプラクティスを定期的に実行することに関して、筋肉記憶を構築する方法として、マイクロ住民によるプロセス全体を開始するのに役立ちます。 0.75
18 b. Part of the US Government Agencies’ internal evaluations 18 bだ 米国政府機関の内部評価の一部。 0.76
i. ii. 私は... 私は... 0.30
Ultimately a lot boils down to creating the right incentive structures around these practices for their adoption. 最終的には、これらのプラクティスを取り囲む適切なインセンティブ構造を作り上げることに多くの波及します。 0.59
we propose an initial, informal inclusion of attention paid to the addressal of these concerns in the employee evaluations. 従業員の評価において、これらの懸念に対処するための最初の非公式な注意事項を提案します。 0.58
This will be gradually bumped into inclusion in official criteria thus sending a clear message to all the staff that we take responsible AI as a core consideration in all the work that we do. これは徐々に公式の基準に含められていくので、作業のすべての中核として責任を負うAIを考慮に入れているすべてのスタッフに明確なメッセージを送信します。 0.67
18 Clear, J. (2018). 18 クリア、J。 (2018). 0.77
Atomic habits: An easy & proven way to build good habits & break bad ones. atomic habits: 良い習慣を作り、悪い習慣を壊すための簡単で実証された方法。 0.77
Penguin. 15 ペンギン。 15 0.73
英語(論文から抽出)日本語訳スコア
Montreal AI Ethics Institute モントリオールAI倫理研究所 0.66
5. How will we measure the impact? 5. どのように影響を測るか? 0.80
a. SRE-inspired metrics a. SREによるメトリクス 0.56
i. ii. 私は... 私は... 0.30
, we can utilize metrics like Mean Time to Recovery (MTTR) Mean Time to Recovery (MTTR) などのメトリクスを利用できます。 0.78
Borrowing from the well-established field of Site Reliability Engineering (SRE) 19 among others by adapting them into how quickly we are able to detect, address, and monitor the ethics implications of our products and services. サイト信頼性エンジニアリング(SRE)19の確立された分野から、製品とサービスの倫理的影響をどのくらい迅速に検出、対処、監視できるかにそれらを適応させることによって、これらを借りています。 0.65
As an example, upon pointing out that there is bias in some internal language models, how quickly are we able to redeploy pretrained models, deliver updates to the downstream customers, and share new guidance for them so that they can incorporate this in their work can be utilized as a proxy for the success of this initiative. 例として、いくつかの内部言語モデルにバイアスがあることを指摘すると、事前に訓練されたモデルを再デプロイし、下流の顧客にアップデートを配信し、彼らの作業にこれを組み込むための新しいガイダンスを共有できることは、このイニシアチブの成功のプロキシとして利用することができます。 0.71
The Three Ways of Responsible AI 責任あるAIの3つの方法 0.72
1. What is it? 1. それは何ですか? 0.79
i. The Three Ways of Responsible AI​ centered on the following ideas: 私は... レスポンシブルAIの3つの方法は、以下のアイデアに基づいています。 0.43
a. Borrowing from the idea of ​The Three Ways of DevOps , we’d like to propose Improving the responsible​posture of the overall system by helping to hold each other accountable Providing feedback that is fast, visible, and accurate Continual learning and implementation of Responsible AI A. The Three Ways of DevOps(DevOpsの3つの方法)のアイデアから引用して、迅速で可視的で正確な継続的学習とResponsible AIの実装に関する説明責任のあるフィードバックを相互に保持することで、システム全体の責任ある姿勢を改善することを提案したいと思います。
訳抜け防止モード: A. The Three Ways of DevOpsのアイデアから引用する 提案したいのは システム全体の責任ある姿勢を改善する お互いの責任を負うフィードバックを Responsible AIの高速かつ可視的で正確な継続的な学習と実装
0.73
ii. iii. 20 私は... iii 20 0.54
2. Why is this needed? 2. なぜこれが必要か? 0.87
a. Clarity on the importance of Responsible AI as a concrete endeavour A. 具体的な取り組みとしての責任AIの重要性の明確化 0.69
19 Beyer, B., Jones, C., Petoff, J., & Murphy, N. R. (2016). 19 Beyer, B., Jones, C., Petoff, J., & Murphy, N. R. (2016)。 0.91
Site Reliability Engineering: How Google Runs Production Systems. " Site Reliability Engineering: Googleが運用システムを実行する方法。 0.74
O'Reilly Media, Inc.". O'Reilly Media, Inc. (英語) 0.59
20 Kim, G., Behr, K., & Spafford, K. (2014). 20 Kim, G., Behr, K., & Spafford, K. (2014)。 0.88
The phoenix project: A novel about IT, DevOps, and helping your business win. フェニックスプロジェクト: IT、DevOps、ビジネスの勝利を支援する小説。 0.58
IT Revolution. 16 IT革命。 16 0.81
英語(論文から抽出)日本語訳スコア
Montreal AI Ethics Institute モントリオールAI倫理研究所 0.66
i. ii. 私は... 私は... 0.30
iii. iv. From anecdotal observations, there is rising concern among practitioners within the ecosystem on the subject of Responsible AI but a lot of those notions are fragmented with varying degrees of understanding on the core issues. iii ivだ 逸話的な観察から、Responsible AIに関してエコシステム内の実践者の間で懸念が高まっているが、これらの概念の多くは、コア問題に関するさまざまな理解で断片化されている。 0.63
One of the frustrations expressed by practitioners is the lack of concrete translations of the principles into things that they can deploy in their work. 実践者が表現する不満の1つは、原則の具体的な翻訳が仕事でデプロイできるものにないことです。 0.60
This is also manifested in the hesitation to try different things when there isn’t a well established framework to evaluate what is working and what isn’t. これはまた、何が機能していて何が機能していないかを評価するための確立されたフレームワークがない場合、異なることを試すことをためらうことにも現れます。 0.59
The first way (​Improving the responsible​ ​posture of the overall system by helping to hold each other accountable​) which can instill the ​kaizen mindset where we strive to continuously make incremental improvements as a way to achieving a better posture for our systems. まず第一に(お互いの責任を負うのを手伝うことによって、システム全体の責任ある姿勢を改善する)、システムのより良い姿勢を達成する手段として継続的に改善を行おうとするカイゼンマインドセットを浸透させることができる。 0.70
This ties in quite well with the notion of micro-habits since they are stepping stones towards exercising Responsible AI practices on a more routine basis. これは、Responsible AIプラクティスをより日常的に実行するための石を踏んでいるため、マイクロ住民の概念と非常によく結びついている。 0.54
b. Actionable advice b. 有効なアドバイス 0.65
i. ii. 私は... 私は... 0.30
The other two ways (​Providing feedback that is fast, visible, and accurate and ​Continual learning and implementation of responsible AI​) serve to operationalize the advice in a manner that produces artifacts that are reusable by others in the organization while also tying principles to concrete outcomes that are measurable in terms of product improvements. 他の2つの方法(速く、目に見える、正確であるフィードバックを提供し、責任あるAIの継続的な学習と実装)は、組織内の他の人が再利用可能なアーティファクトを生成し、製品改善の観点から測定可能な具体的な成果に原則を結び付ける方法でアドバイスを運用するのに役立ちます。 0.72
This is very much in line with the emphasis in the Document on producing tracing artifacts throughout the AI lifecycle that will help stakeholders work on the problems in a manner that is visible to others while also helping them better achieve their goals by providing them with explicit items that aid their development process. これは、aiライフサイクル全体にわたってトレースアーティファクトを生産することに関するドキュメントの強調と一致しており、利害関係者が他の人に見える方法で問題に取り組むのに役立つと同時に、開発プロセスを支援する明示的な項目を提供することによって、彼らの目標を達成するのに役立つ。 0.63
3. What will it look like? 3. どんな風に見えますか? 0.75
a. Shared manifesto A. 共有マニフェスト 0.68
i. Given that the high-level principles as we articulated them are quite simple, we can generate a shared manifesto that anyone can take a look 私は... それらを表現したハイレベルな原則は非常に単純であることを踏まえると、誰でも見れるような共通のマニフェストを作成できるのです。
訳抜け防止モード: 私は... 私たちが表現したハイレベルな原則は、非常に単純です。 誰でも閲覧できる 共有マニフェストを作成できます
0.53
17 17 0.85
英語(論文から抽出)日本語訳スコア
Montreal AI Ethics Institute モントリオールAI倫理研究所 0.66
ii. iii. at and provide comments on, likely through having it open in a ​wiki-styled platform​. 私は... iii wikiスタイルのプラットフォームで、おそらくはオープンにすることで、コメントを提供する。 0.51
This is something that the NSCAI, JAIC, OSTP, or now the National AI Initiative Office can review periodically to allow for revisions and alignment such that it is efficacious and reflective of emerging concerns. NSCAI、JAIC、OSTP、あるいは現在国立AIイニシアティブオフィスが定期的にレビューして、それが新興の懸念を効果的かつ反映しているように修正とアライメントを可能にするものなのです。 0.60
As pointed out in the document and something was a point of discussion both at the workshop and the internal team discussions was how there are many disparate efforts and differences in how shared terms are used whereby groups communicating with each other think that they are following the same ideas but in reality they are not. ドキュメントで指摘されているように、ワークショップと社内チームの議論の両方において、何かが議論のポイントだったのは、共有用語がどのように使われるかに多くの異なる取り組みと違いがあったかであった。
訳抜け防止モード: ドキュメントで指摘されているように、ワークショップと社内チームの議論の両方で議論のポイントがあったのは、多くの異なる取り組みがあるかであった。 共有用語の使われ方の違いは 互いにコミュニケーションするグループは、彼らが同じ考えに従っていると考えるが、実際にはそうではない。
0.69
The ideas highlighted in this section are thus critical in developing that shared vocabulary that will enable all these puzzle pieces to fit together nicely. この節で強調されたアイデアは、これらのパズルのピースをうまく組み合わせられるような、共有語彙の開発に不可欠である。 0.67
b. Feedback templates bだ フィードバックテンプレート 0.74
i. ii. 私は... 私は... 0.30
To achieve the ​Second​ ​Way​ we need something that helps people provide feedback to each other in a manner that meets the requirements for it to be fast, visible, and accurate to extract more value from their efforts. 第二の方法を達成するためには、人々が互いの努力からより多くの価値を引き出すために、迅速で目に見える、正確な要求を満たす方法で、お互いにフィードバックを提供するのに役立つものが必要です。 0.71
The templates will not only lower the barriers in terms of what needs to be included in the feedback but it will ensure that the qualities that we seek to have in that feedback are captured every time. テンプレートは、フィードバックに何を含めるべきかという観点で障壁を低くするだけでなく、フィードバックが毎回キャプチャされるようにしたい品質を確実にします。
訳抜け防止モード: テンプレートは、フィードバックに含める必要がある点に関して障壁を低くするだけでなく しかし、そのフィードバックにおいて私たちが求めている資質が毎回捕捉されることを確実にします。
0.73
4. How will it work in practice? 4. 実際にどのように動作するのか? 0.74
a. Colloquiums a. Colloquiums 0.88
i. ii. 私は... 私は... 0.30
iii. Having regular colloquiums led by practitioners from different areas, especially those who are in management positions will be a way to surface how well the ​rubber is meeting the road​ when it comes to applying ​The Three Ways ​in practice. iii 異なる分野の実務者、特に管理職に就いている人々によって主導される定期的な口語が、実践の3つの方法を適用する上で、ゴムがいかに道路を満たしているかを明らかにする手段となるだろう。 0.57
Just as we have in academic labs, over time we could emphasize the need for practitioners to attend these colloquiums as a part of ​unofficial continuing education credits ​in responsible AI. アカデミックラボにもあるように、私たちは時間とともに、責任あるAIにおける非公式な教育クレジットの一部として、実践者がこれらのコロキウムに参加する必要性を強調します。 0.50
This notion of ​unofficial continuing education credits ​will also act as an incentive over time for people to engage in the material. この非公式に継続する教育クレジットという概念は、人々が素材に携わる際のインセンティブとしても機能する。 0.65
This is quite in line with the recommendations on workforce training and recertification processes as mentioned in the Document. これは、文書に記載されているように、労働力のトレーニングと認証プロセスに関する推奨事項と一致しています。 0.59
18 18 0.85
英語(論文から抽出)日本語訳スコア
Montreal AI Ethics Institute モントリオールAI倫理研究所 0.66
b. Post-mortems i. b.反省 私は... 0.46
ii. Having post-mortems on projects to see how ​The Three Ways ​performed would be a good way to not only test the efficacy of these principles but also find places for improvement. 私は... プロジェクトに対する反省から、どのように3つの方法が実行されたかを確認することは、これらの原則の有効性をテストするだけでなく、改善の場所を見つけるための良い方法になるでしょう。
訳抜け防止モード: 私は... ポストする - The Three Waysの実施がよい方法になるプロジェクトを考える これらの原則の有効性を テストするだけでなく 改善の場所も見つけます
0.53
Such post-mortems will also be quite familiar to people across disciplines and thus lower the barrier for trying out an activity because of the familiarity with it. このようなポストモーテムは、規律を超えて人々にも非常に馴染みがあり、それに慣れているため、アクティビティを試すための障壁を低くします。 0.53
c. Pre-mortems i. c.プレモーテム 私は... 0.51
ii. They are an opportunity to foresee and plan for some of the worst-case scenarios that might pan out with the use of AI and see what are the practices from ​The Three Ways of Responsible AI ​that can help to be proactive about that. 私は... 彼らは、AIの使用に支障をきたす可能性のある最悪のシナリオのいくつかを予見し、計画し、それについて積極的に役立つ「責任あるAIの3つの方法」のプラクティスが何であるかを確認する機会です。
訳抜け防止モード: 私は... 彼らは、最悪のシナリオのいくつかを予見し、計画する機会です。 AIを使って The Three Ways of Responsible AIの実践とは? それについて積極的であるのを助けることができます。
0.54
This is in line with existing practices in the IC and DoD with wargames that help to play out different scenarios and anticipate and practise various strategies to better prepare for the real-world. これは、ICとDoDの既存のプラクティスと一致しており、様々なシナリオを実行し、現実世界に備えるために様々な戦略を予想し、実践するのに役立ちます。 0.73
d. Growing dedicated staff i. d.専任職員の育成 私は... 0.50
ii. All of this requires time and effort and even though at the moment the team directly working on these ideas might be small, planning for growth over time as we are able to demonstrate the effectiveness of investing efforts on this front. 私は... これらすべてには時間と労力が必要ですが、現時点ではこれらのアイデアに直接取り組むチームは小さいかもしれませんが、この面での投資の有効性を実証できるため、時間の経過とともに成長を計画しています。
訳抜け防止モード: 私は... これらすべてには時間と労力が必要ですが、現時点では、これらのアイデアを直接的に取り組んでいるチームは小さいかもしれません。 時間とともに成長する計画 この分野での投資の 効果を実証できるのです
0.49
Horizontal scaling on the part of teams on the ground will also help to alleviate the need for an expanded team that helps to run this along with the upskilling of the staff that is on the team that can take on these functions as a part of their own roles. 地上のチームの水平スケーリングは、これらの機能を自分の役割の一部として引き受けることができるチームにいるスタッフのスキルアップとともに、これを実行するのに役立つ拡張されたチームの必要性を軽減するのに役立ちます。 0.81
5. How will we measure the impact? 5. どのように影響を測るか? 0.80
a. Engineering feedback forms A. 工学的フィードバック形式 0.78
19 19 0.85
英語(論文から抽出)日本語訳スコア
Montreal AI Ethics Institute モントリオールAI倫理研究所 0.66
i. ii. 私は... 私は... 0.30
Sending out engineering feedback forms to gauge to what extent fundamentals like CI/CD are being applied in different projects, we can integrate questions on Responsible AI being applied to projects within the same survey forms. エンジニアリングフィードバックフォームを送信して、CI/CDのような基本が異なるプロジェクトにどの程度適用されているかを測定することで、同じ調査フォーム内のプロジェクトに適用されている責任AIに関する質問を統合することができます。
訳抜け防止モード: エンジニアリングフィードバックフォームの送信 さまざまなプロジェクトに適用されているCI/CDなどの基本を測るのです。 同じ調査形式のプロジェクトに適用されているResponsible AIに関する質問を統合することができます。
0.69
This can be useful to gain an understanding of the degree of maturity of these practices across various departments and where educational and awareness efforts should be targeted. これは、これらの実践の成熟度を様々な部門で理解し、教育と意識の取り組みを目標とする上で有用である。 0.66
These will help to capture both the pervasiveness of application and the depth and rigor of application of these ideas in practice and try to find gaps in places that they are not being applied as such. これらは、適用の広範性と、これらのアイデアの実践における適用の深さと厳格さの両方を捉え、適用されていない場所でギャップを見つけようとするのに役立ちます。 0.75
b. Pulse checks on internal fora b. 内部フォアのパルスチェック 0.78
i. ii. 私は... 私は... 0.30
By applying sentiment analysis and other NLP techniques, we can also get a live pulse on whether the ​Three Ways ​are being actively discussed and imbibed across the organization (keeping in mind not to violate privacy of individuals who post and interact on the fora). 感情分析やその他のNLP技術を適用することで、組織全体で3つの方法が積極的に議論され、注入されているかどうか(フォアに投稿し、対話する個人のプライバシーを侵害しないように注意)について、生のパルスを得ることができます。 0.62
This can supplement the data from the less frequent surveys that are sent out, this is particularly useful in the case when we have a fast-moving field such as Responsible AI which can have meaningful developments taking place within a few months, something that the surveys might be a bit slow in capturing. これは、送信される頻度の低い調査から得られるデータを補うことができ、Responsible AIのような、数ヶ月以内に有意義な開発を行うことのできる、迅速な動きの場を持つ場合に特に有用である。
訳抜け防止モード: これは、送信される頻度の低い調査からデータを補うことができます。 これは、Responsible AIのような高速な移動フィールドがある場合に特に役立ちます。 数ヶ月以内に 意味のある発展が起こりました 調査が捉えるのが 少し遅いかもしれません
0.67
c. Potential improvements in the SRE-inspired metrics c. SREによる指標の潜在的改善 0.75
i. ii. 私は... 私は... 0.30
Though a pure causal analysis of the impact of ​The Three Ways ​would be hard, we could draw some conclusions from the degree of adoption of these ideas with the change in the SRE-inspired metrics. The Three Waysの影響についての純粋な因果分析は難しいが、これらのアイデアの採用度合いとSREにインスパイアされたメトリクスの変化から、いくつかの結論を導き出すことができる。 0.69
This will help to provide empirical evidence on the success of the measures being undertaken and help to make a stronger case for dedicating more resources to the deployment of Responsible AI across the organization. これは、実施されている措置の成功に関する実証的な証拠を提供し、組織全体のレスポンシブルAIの展開により多くのリソースを捧げるためのより強力なケースを作るのに役立ちます。 0.60
Empirically-driven risk prioritization matrix 経験的リスク優先化行列 0.61
1. What is it? 1. それは何ですか? 0.79
20 20 0.85
英語(論文から抽出)日本語訳スコア
Montreal AI Ethics Institute モントリオールAI倫理研究所 0.66
a. One of b. Our proposal A. 一つ bだ 我々の提案は 0.69
c. the places where we have seen hesitation and impediments to the implementation of Responsible AI is that it can be ​overwhelming in terms of what needs to be done (if it wasn’t already done by design) and that can place additional burdens on those who are tasked with ensuring that the product gets delivered on time to customers. cだ Responsible AIの実装に迷いや障害を感じた場所は、何をすべきか(設計によってすでに行われていない場合)という点で圧倒的になり、製品が顧客に時間通りに配信されることを確実にする任務を負っている人に追加の負担をかけることができるということです。 0.74
is to adopt an ​empirically-driven prioritization matrix that has two axes of the likelihood of occurrence of Responsible AI violations and the severity of those violations (borrowing from the world of cybersecurity) In addition, having a ​CVE-NVD like database to which practitioners can subscribe for updates from whence we can dispatch learnings that might apply to problems that you are working on and solutions that might have been encountered in different parts of the organization to address those. is to adopt an ​empirically-driven prioritization matrix that has two axes of the likelihood of occurrence of Responsible AI violations and the severity of those violations (borrowing from the world of cybersecurity) In addition, having a ​CVE-NVD like database to which practitioners can subscribe for updates from whence we can dispatch learnings that might apply to problems that you are working on and solutions that might have been encountered in different parts of the organization to address those. 0.91
This will evolve over time as more people add their experiences into the system and tying this to the previous point will help to make the entire process a lot more actionable. これは時間が経つにつれて進化し、より多くの人々がシステムに経験を追加し、これを以前のポイントに結び付けることで、プロセス全体をより実行しやすくするのに役立ちます。 0.68
2. Why is this needed? 2. なぜこれが必要か? 0.87
a. Lifecycle view a.ライフサイクルビュー 0.68
i. ii. 私は... 私は... 0.30
iii. Addressing AI ethics concerns as we mentioned earlier can seem like a burden and potentially even orthogonal to delivering products and services on time. iii 先程述べたように、AI倫理上の懸念に対処することは、製品やサービスを時間通りに届ける上で、重荷になり得る。
訳抜け防止モード: iii 先に述べたようにAI倫理の懸念に対処する プロダクトおよびサービスを時間通りに渡すことへの負荷そして潜在的に直交のように思えるかもしれません。
0.54
But, if we adopt a more pragmatic approach that looks at the entire lifecycle investment rather than just the upfront investment that needs to be made, we can arrive at a more sustainable pace for the inclusion of these practices in the everyday work of the engineers. しかし、もし私たちが、必要となる事前投資ではなく、ライフサイクル投資全体を検討するより現実的なアプローチを採用するならば、エンジニアの日常的な作業にこれらのプラクティスを取り入れるための、より持続可能なペースに到達できます。 0.76
This is already something that is fundamental to the Document and we appreciate this focus because there are many efforts ongoing at the moment that don’t take this aspect into account. これはすでにドキュメントの基本的な部分であり、現時点ではこの側面を考慮に入れていない多くの取り組みが進行中であるため、私たちはこの焦点に感謝しています。 0.67
Ultimately, an important consideration is the consistency and persistence of application of these ideas rather than just one-off experimentation that can have small wins in the near-term but not affect the status quo too much in the long-run. 究極的には、これらのアイデアの適用の一貫性と持続性は、短期的には小さな勝利しか持たないが、長期的には現状にはあまり影響しない、単発の実験よりも重要である。 0.64
b. Roadmap i. b. ロードマップ 私は... 0.46
The risk matrix can provide a convenient framework for technical and product managers to select those areas that pose the highest risks to the リスクマトリックスは、技術的およびプロダクトマネージャが最もリスクの高い領域を選択するための便利なフレームワークを提供することができる。 0.75
21 21 0.85
英語(論文から抽出)日本語訳スコア
success of the product, at the same time helping to achieve the ​biggest bang for the buck ​in terms of the efforts that are invested by the team when it comes to deploying Responsible AI practices. プロダクトの成功と同時に、Responsible AIプラクティスのデプロイに関してチームによって投資された労力の面で、バックにとって最大のバンを達成するのに役立ちます。 0.64
They can also serve as an easy gateway into making possible the adoption of these ideas without having to overcome too much inertia. あまりに慣性に打ち勝つことなく、これらのアイデアの採用を可能にするための簡単なゲートウェイとしても機能する。 0.53
ii. Montreal AI Ethics Institute 私は... モントリオールAI倫理研究所 0.46
3. What will it look like? 3. どんな風に見えますか? 0.75
a. Two-dimensional matrix a. 2次元マトリクス 0.70
i. ii. 私は... 私は... 0.30
iii. 21 The matrix will take the form of a two-dimensional grid with the axes of severity or risks and likelihood of risks (borrowing from cybersecurity risk matrices ) that can help the team make fast and effective determinations on which directions to pursue. iii 21 このマトリクスは、重大さやリスクの軸とリスク(サイバーセキュリティのリスクマトリックスから外れている)の可能性を伴い、チームがどの方向を追求するかを素早く効果的に決定するのに役立つ2次元グリッドの形を取る。
訳抜け防止モード: iii 21 行列は重度またはリスクの軸を持つ2次元格子の形をとる リスクの可能性(サイバーセキュリティのリスクマトリックスから借りたもの) チームがどの方向を追求するかを 迅速かつ効果的に決定するのに役立ちます
0.74
The simplicity of the matrix is also an important consideration because it lowers the barriers to adoption and makes it accessible across multiple job roles rather than requiring very specialized expertise which can decrease the potential for cross-disciplinary collaborations. マトリックスの単純さは、分野横断的なコラボレーションの可能性を低下させる非常に専門的な専門知識を必要とするのではなく、採用の障壁を低くし、複数の役割にまたがってアクセスできるようにするため、重要な考慮事項でもある。 0.60
Keeping in line with one of the opening remarks in this report, aiming for low friction to increase ubiquity of adoption should always be a consideration when looking to include new processes or modifying existing processes. このレポートの冒頭のコメントの1つに沿うように、新しいプロセスを含めるか、または既存のプロセスを変更するとき採用のユビキティを高めるために低い摩擦を目指すことは常に考慮されるべきです。 0.61
4. How will it work in practice? 4. 実際にどのように動作するのか? 0.74
a. Gathering empirical data A. 実証データの収集 0.70
i. ii. 私は... 私は... 0.30
Through the learning, knowledge, and information exchange (LKIE) that we mentioned in this report, we can associate empirical data over time with each of the use cases that are encountered by teams over time and aggregate them by industry domain and ML sub-domain. このレポートで述べた学習、知識、情報交換(LKIE)を通じて、経験的なデータを時間とともにチームによって遭遇する各ユースケースに関連付け、業界ドメインとMLサブドメインによってそれらを集約することができます。 0.79
This will also help to convince the stakeholders experimenting with and deploying these measures have a degree of confidence in the これはまた、これらの措置を実験し、展開している利害関係者に自信を持って納得させるのに役立ちます。
訳抜け防止モード: これでも役立ちます これらの措置を実験して展開するステークホルダーに ある程度の信頼を与えるために
0.83
21 https://www.csa.gov. sg/-/media/csa/docum ents/legislation_sup plementary_reference s/guide_to_conducti ng_cybersecurity_ris k_assessment_for_cii .pdf 21 https://www.csa.gov. sg/-/media/csa/docum ents/legislation_sup plementary_reference s/guide_to_conducti ng_cybersecurity_ris k_assessment_for_cii .pdf 0.16
22 22 0.85
英語(論文から抽出)日本語訳スコア
Montreal AI Ethics Institute モントリオールAI倫理研究所 0.66
recommendations since they will have the trust and experience of their colleagues behind it. 彼らはその背後に彼らの同僚の信頼と経験を持っているので推奨します。 0.57
b. Post-mortem on the effectiveness of the matrix recommendations b.マトリックスレコメンデーションの有効性に関する反省会 0.71
i. While the generation of counterfactuals in this case is not easy, 私は... この場合の反事実の生成は容易ではない。 0.46
aggregating over many use-cases, we could arrive at some causal inferences on the efficaciousness of the recommendations that are utilized from the matrix evaluations, specifically, in picking which areas should be prioritized to be addressed first. 多くのユースケースを集約することで、マトリックス評価から利用されるレコメンデーションの有効性、特に、最初に対処すべき領域を選択する際に、いくつかの因果的推論にたどり着くことができる。 0.63
5. How will we measure the impact? 5. どのように影響を測るか? 0.80
a. Pulse feedback from employees a. 社員からのパルスフィードバック 0.67
i. ii. 私は... 私は... 0.30
Just as we looked at the other places where integrating the ask for feedback on the usefulness of the measures proposed here, we can utilize engineering pulse surveys to get a sense for what works well and what doesn’t. ここで提案されている措置の有用性に関するフィードバックを求める他の場所を見ると、エンジニアリングパルスサーベイを利用して、何がうまくいって何がうまくいかなかったかを理解することができます。 0.66
In addition, this is also an opportunity to learn about the degree of adoption across the organization and other useful metrics that come from such an exercise. さらにこれは、組織全体にわたる採用の度合いや、そのような活動から得られる他の有用な指標についても学ぶ機会でもある。 0.73
This will help tailor the approaches to different departments over time perhaps and surface best practices that can help organizational units get more mileage from these measures. これはおそらく、異なる部門へのアプローチを時間とともに調整し、組織ユニットがこれらの措置からより多くの距離を得るのに役立つベストプラクティスを提示するのに役立つだろう。 0.52
b. SRE-inspired metrics b. SREによるメトリクス 0.58
i. ii. 私は... 私は... 0.30
iii. Borrowing again from the other SRE-inspired metrics mentioned before, we can get a quantitative estimate of the efficacy of these measures which will be useful in justifying their adoption both internally within teams and across teams within the organization. iii 先に述べた他のSREに触発されたメトリクスから再び借用すると、これらの措置の有効性を定量的に見積もることができ、チーム内および組織内のチーム間の採用を正当化するのに役立つでしょう。 0.58
These will provide a much-needed quantitative aspect to supplement any qualitative data that is collected on the efficacy of these measures. これらは、これらの措置の有効性に基づいて収集された定性的なデータを補うために、必要な量的側面を提供します。 0.59
As one seeks to get more organizational support to implement these ideas in practice, we believe that such empirical evidence will be essential in convincing those with resource allocation powers to dedicate more firepower to the Responsible AI efforts. これらのアイデアを実践するためにより多くの組織的支援を得ることを目指す中で、リソース割り当て能力を持つ人々を説得し、レスポンシブルAIの取り組みにより多くの火力を捧げるためには、そのような実証的証拠が不可欠であると考えています。 0.56
23 23 0.85
英語(論文から抽出)日本語訳スコア
Achieving the right level of complexity 正しいレベルの複雑さを達成する 0.81
1. What is it? 1. それは何ですか? 0.79
Montreal AI Ethics Institute モントリオールAI倫理研究所 0.66
a. Finally, we believe that there is much to be taken from Tesler’s Law that we 22 could apply to the proposed measures above: achieving the right level of complexity will be essential, both from a process and backend perspective and the front-end experience of the practitioners who will be tasked with implementing the responsible AI standard in their everyday work. A. プロセスとバックエンドの観点から適切なレベルの複雑さを達成することは、日々の仕事で責任のあるai標準を実装することを任務とする実践者のフロントエンド体験の両方から必要となるでしょう。
訳抜け防止モード: A. 最後に、私たちは多くのものがあると信じています テスラーの法則から,先程提案された措置に本法を適用できること 正しい複雑性のレベルを達成するには プロセスとバックエンドの両方の観点から そして 実践者にとっての 最前線の体験は 日々の作業に責任あるAI標準を実装することを任務とする。
0.72
2. Why is this needed? 2. なぜこれが必要か? 0.87
a. Exposing too much to the developers a. 開発者に過剰に露出すること 0.69
i. ii. 私は... 私は... 0.30
iii. iv. The developers are the end-users in this scenario in a sense who, unless they are deeply interested in the area of Responsible AI themselves, have severe constraints on their time to have to figure out which techniques will work well and which won’t. iii ivだ 開発者は、Responsible AI自体の領域に深く関心がない限り、どのテクニックがうまく機能し、どれがうまくいかないかを判断しなければならない時間に厳しい制約がある、という意味で、このシナリオのエンドユーザです。 0.66
In terms of complexity, if we leave open all the choices for different kinds of software that they can use to implement Responsible AI in their products and services, we add to the burden of the end-user in having to make that choice, often with limited information on their efficacy which can lead to misguided choices. 複雑さの面では、製品やサービスにResponsible AIを実装するために利用可能なさまざまな種類のソフトウェアに対して、すべての選択肢をオープンにしておけば、その選択をしなくてはならず、多くの場合、その有効性に関する限られた情報によって、誤った選択につながる可能性のあるエンドユーザの負担が増します。 0.63
Yet, an argument can also be made that it might be premature to advocate too strongly for particular approaches when the developers on the team might have the greatest insight into how their use-case is unique compared to what has been done already at the organization. しかし、チームの開発者が、組織ですでに行われていることと比較して、彼らのユースケースがどのようにユニークであるかについて、最も大きな洞察を持つかもしれない場合、特定のアプローチを強く主張するのは時期尚早である、という議論もある。 0.59
In this case, it is important to consider the right level of complexity that is exposed to the user in terms of the granularity of control that is offered to the end-user, the developer, so that they are not overburdened but at the same time have adequate agency to make the required changes as they need to better meet the needs of their project. この場合、エンドユーザ、開発者に対して提供されるコントロールの粒度の観点から、ユーザにとって適切なレベルの複雑さを考慮することが重要です。
訳抜け防止モード: この場合、エンドユーザーに提供される制御の粒度の観点から、ユーザーに公開される複雑さの適切なレベルを考慮することが重要です。 開発者は、それらがオーバーバーデンドされるのではなく、同時に必要な変更を行うための適切な代理店を持っているように。 プロジェクトのニーズをよりよく満たす必要があります
0.79
22 ​https://en.wikipedia .org/wiki/Law_of_con servation_of_complex ity 22 https://en.wikipedia .org/Law_of_conserva tion_of_complexity 0.27
24 24 0.85
英語(論文から抽出)日本語訳スコア
Montreal AI Ethics Institute モントリオールAI倫理研究所 0.66
3. What will it look like? 3. どんな風に見えますか? 0.75
a. Progressive disclosures A. プログレッシブ・開示 0.69
i. ii. 私は... 私は... 0.30
This will involve principles of progressive disclosure as a way of assessing where we see the most effective deployments and uptake of the principles and practices as mentioned in the rest of this document. これは、最も効果的なデプロイメントと、このドキュメントの他の部分で述べた原則とプラクティスの取り込みを評価する方法として、プログレッシブな開示の原則を伴います。 0.75
This will be sourced from the data that is gathered from the initiatives under the other pillars mentioned in the document. これは、文書に記載された他の柱の下でイニシアチブから収集されたデータから調達されます。 0.62
b. Feedback calibration bだ フィードバックキャリブレーション 0.70
i. ii. 私は... 私は... 0.30
Calibrating that with the feedback gathered from different instruments like the pulse surveys will further help to tune what level of granularity works best. パルスサーベイのような異なる機器から集められたフィードバックによって、粒度のどのレベルが最もうまくいくかの調整がさらに役立ちます。 0.65
Keeping in mind that complexity can either be offloaded on to the user in terms of the number of choices that they have to make or abstracted away from them such that the interface appears simple to them but there is a lot of complexity hidden away which ultimately restricts the kind of control that they can exercise. 複雑性はユーザにオフロードされる可能性があることを心に留めておくか、インターフェースがそれらにシンプルに見えるようにそれらから抽象化する必要がある選択肢の数の点で、最終的に彼らが実行できる制御の種類を制限する多くの複雑性があります。 0.83
4. How will it work in practice? 4. 実際にどのように動作するのか? 0.74
a. Working with design researchers A. デザイン研究者と協力し 0.71
i. ii. 私は... 私は... 0.30
Given the vast expertise that is available to the US Government agencies, we can utilize the insights that design researchers have on the front of understanding what will lead to achieving the right level of complexity for the end-users, the developers of the practices developed by the Document. 米国政府の機関が利用できる膨大な専門知識を考えると、設計研究者がエンドユーザ、すなわちドキュメントによって開発されたプラクティスの開発者に対して、適切なレベルの複雑さを達成するための何につながるかを理解する上で、その洞察を利用することができます。 0.72
Some of it can borrow from typical design methodologies, but we also suspect that there is potential here for new kinds of research to be done that will boost the effectiveness of the work that we are trying to do as well with this initiative. その中には、典型的な設計手法から借りることができるものもありますが、このイニシアチブと同様に、私たちがやろうとしている作業の有効性を高める新しい種類の研究を行う可能性もあります。 0.71
25 25 0.85
英語(論文から抽出)日本語訳スコア
Montreal AI Ethics Institute モントリオールAI倫理研究所 0.66
b. Community insights bだ コミュニティの洞察 0.76
i. ii. 私は... 私は... 0.30
Learning directly from the practitioners on the ground will also help to fine-tune this approach to better meet their needs. 地上の実践者から直接学ぶことは、このアプローチを微調整し、ニーズをよりよく満たすのに役立ちます。 0.61
Additionally, those who are using it on a regular basis in their work will also have invaluable feedback that we could utilize. さらに、定期的に作業で使用している人たちにも、私たちが活用できる貴重なフィードバックがあります。 0.65
5. How will we measure the impact? 5. どのように影響を測るか? 0.80
a. SRE-inspired metrics and feedback sentiments a. SREに触発されたメトリクスとフィードバックの感情 0.49
i. Just as is the case with the other initiatives, the impact and efficacy of these measures can be evaluated by utilizing SRE-inspired metrics and assessing the sentiments as expressed in the feedback from the developers. 私は... 他の取り組みと同様に、SREにインスパイアされたメトリクスを活用し、開発者からのフィードバックで表現された感情を評価することで、これらの措置の影響と有効性を評価することができます。 0.51
Conclusion Through some of the general comments made at the beginning of this report that were split along refinements and steps that need to be taken to address some of the organizational, technical, and community issues along with a framework including the learning, knowledge, and information exchange (LKIE), The Three Ways of Responsible AI, empirically-driven risk-prioritization matrix, and achieving the right level of complexity for ​Making​ ​Responsible AI the Norm rather than the Exception​, we believe that the US Government agencies and Commissions like the NSCAI have a great role to play in making governments a role model in putting Responsible AI into practice. Conclusion Through some of the general comments made at the beginning of this report that were split along refinements and steps that need to be taken to address some of the organizational, technical, and community issues along with a framework including the learning, knowledge, and information exchange (LKIE), The Three Ways of Responsible AI, empirically-driven risk-prioritization matrix, and achieving the right level of complexity for ​Making​ ​Responsible AI the Norm rather than the Exception​, we believe that the US Government agencies and Commissions like the NSCAI have a great role to play in making governments a role model in putting Responsible AI into practice. 0.89
Governments have in the past been great leaders in undertaking massive investments and efforts to bring forth technological progress that has benefited society writ large and we believe that Responsible AI is another area where the US Government can play a crucial role, leveraging its massive influence and access to resources and allies across the globe in making this a reality. 政府はこれまで、社会に貢献できる技術的進歩をもたらすための大規模な投資と努力を行うための偉大なリーダーであり、責任あるAIは米国政府が重要な役割を果たすことができる別の領域であり、その巨大な影響力と世界中のリソースと同盟国へのアクセスを利用してこれを現実にすると信じています。 0.72
Through the recommendations made in this report, we hope that we can further enhance the excellent work that the NSCAI has done in putting together the Document and we can collectively achieve the vision of ​Making Responsible AI the Norm rather than the Exception​. この報告書の勧告により、我々は、nscaiが文書をまとめる際に行った優れた仕事をさらに強化し、責任あるaiを例外ではなく規範にするというビジョンを総合的に達成できることを望んでいる。 0.66
26 26 0.85
                                                     ページの最初に戻る

翻訳にはFugu-Machine Translatorを利用しています。