論文の概要: Australia's Approach to AI Governance in Security and Defence
- arxiv url: http://arxiv.org/abs/2112.01252v2
- Date: Wed, 9 Mar 2022 21:46:26 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-07 01:57:39.453062
- Title: Australia's Approach to AI Governance in Security and Defence
- Title(参考訳): オーストラリアの安全保障と防衛におけるAIガバナンスへのアプローチ
- Authors: Susannah Kate Devitt and Damian Copeland
- Abstract要約: オーストラリアは強力な同盟国とパートナーシップを持つ主要なAI国である。
新たな作戦手段及び方法に関する第36条の見直しを約束する。
安全保障と防衛に関する倫理ガイドラインと枠組みを策定する。
オーストラリアは、ADO AI能力獲得プロセスに法的および倫理的考察を統合することで、リーダーシップの役割を果たすことができる。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Australia is a leading AI nation with strong allies and partnerships.
Australia has prioritised the development of robotics, AI, and autonomous
systems to develop sovereign capability for the military. Australia commits to
Article 36 reviews of all new means and methods of warfare to ensure weapons
and weapons systems are operated within acceptable systems of control.
Additionally, Australia has undergone significant reviews of the risks of AI to
human rights and within intelligence organisations and has committed to
producing ethics guidelines and frameworks in Security and Defence. Australia
is committed to OECD's values-based principles for the responsible stewardship
of trustworthy AI as well as adopting a set of National AI ethics principles.
While Australia has not adopted an AI governance framework specifically for the
Australian Defence Organisation (ADO); Defence Science and Technology Group
(DSTG) has published 'A Method for Ethical AI in Defence' (MEAID) technical
report which includes a framework and pragmatic tools for managing ethical and
legal risks for military applications of AI. Australia can play a leadership
role by integrating legal and ethical considerations into its ADO AI capability
acquisition process. This requires a policy framework that defines its legal
and ethical requirements, is informed by Defence industry stakeholders, and
provides a practical methodology to integrate legal and ethical risk mitigation
strategies into the acquisition process.
- Abstract(参考訳): オーストラリアは強力な同盟国とパートナーシップを持つ主要なAI国である。
オーストラリアは、ロボット工学、AI、自律システムの開発を優先し、軍用の主権能力を開発している。
オーストラリアは、武器と武器のシステムが許容可能な制御システム内で運用されることを保証するため、新しい戦闘手段と方法に関する第36条の見直しを約束する。
さらにオーストラリアは、人権や諜報機関におけるaiのリスクに関する重要なレビューを行い、安全と防衛に関する倫理ガイドラインや枠組みの策定に尽力している。
オーストラリアは、OECDの価値観に基づく原則を、信頼できるAIの責任者としてだけでなく、国家AI倫理原則のセットを採用することにコミットしている。
オーストラリアはオーストラリア国防機構(ado)向けのaiガバナンスフレームワークを採用していないが、国防科学技術グループ(dstg)は、aiの軍事応用における倫理的および法的リスクを管理するためのフレームワークと実践的なツールを含む「a method for ethics ai in defense」(meaid)テクニカルレポートを発表した。
オーストラリアは、ADO AI能力獲得プロセスに法的および倫理的考察を統合することで、リーダーシップの役割を果たすことができる。
これは、法的および倫理的要件を定義し、防衛産業の利害関係者に通知され、法的および倫理的リスク軽減戦略を取得プロセスに統合するための実践的な方法論を提供する政策枠組みを必要とする。
関連論文リスト
- Using AI Alignment Theory to understand the potential pitfalls of regulatory frameworks [55.2480439325792]
本稿では、欧州連合の人工知能法(EU AI法)を批判的に検討する。
人工知能における技術的アライメントの潜在的な落とし穴に焦点を当てたアライメント理論(AT)研究からの洞察を利用する。
これらの概念をEU AI Actに適用すると、潜在的な脆弱性と規制を改善するための領域が明らかになる。
論文 参考訳(メタデータ) (2024-10-10T17:38:38Z) - Do Responsible AI Artifacts Advance Stakeholder Goals? Four Key Barriers Perceived by Legal and Civil Stakeholders [59.17981603969404]
責任あるAI(RAI)コミュニティは、透明性を促進し、AIシステムのガバナンスをサポートするために、多数のプロセスとアーティファクトを導入している。
我々は、責任あるAI活動に関する政策と擁護を通知する19の政府、法律、市民社会の利害関係者と半構造化されたインタビューを行う。
我々は、これらの信念を4つの障壁にまとめて、RAIアーティファクトが(必然的に)市民社会、政府、産業間での権力関係を再構成する方法を説明する。
論文 参考訳(メタデータ) (2024-08-22T00:14:37Z) - False Sense of Security in Explainable Artificial Intelligence (XAI) [3.298597939573779]
我々は、AI規制と現在の市場条件が効果的なAIガバナンスと安全性を脅かすと主張している。
政府は明確な立法と政策ステートメントを通じて説明可能性の問題に明示的に対処しない限り、AIガバナンスのリスクは空虚な「ボックス・ティック」のエクササイズになる。
論文 参考訳(メタデータ) (2024-05-06T20:02:07Z) - AI Procurement Checklists: Revisiting Implementation in the Age of AI Governance [18.290959557311552]
AIの公共セクターの利用はここ10年で増加傾向にあるが、最近になって文化の世俗主義に参入する試みが始まっている。
分かりやすいが、政府におけるAIシステムの倫理的かつ効果的な展開を促進することは、非常にありふれた仕事だ。
論文 参考訳(メタデータ) (2024-04-23T01:45:38Z) - AI Safety: Necessary, but insufficient and possibly problematic [1.6797508081737678]
この記事では、AI安全性に関する最近の誇大広告について批判的に考察する。
AIの安全性」とは実際に何を意味するのかを考察し、AIの安全性のデジタルフットプリントが持つ支配的な概念を概説する。
私たちは、AIの安全性が、悪用され有害なAIに安全を害することで、構造的危害を助長するAIを正規化する方法に関する懸念を共有します。
論文 参考訳(メタデータ) (2024-03-26T06:18:42Z) - A Safe Harbor for AI Evaluation and Red Teaming [124.89885800509505]
一部の研究者は、そのような研究の実施や研究成果の公表が、アカウント停止や法的報復につながることを恐れている。
我々は、主要なAI開発者が法的、技術的に安全な港を提供することを約束することを提案します。
これらのコミットメントは、ジェネレーティブAIのリスクに取り組むための、より包括的で意図しないコミュニティ努力への必要なステップである、と私たちは信じています。
論文 参考訳(メタデータ) (2024-03-07T20:55:08Z) - Managing extreme AI risks amid rapid progress [171.05448842016125]
我々は、大規模社会被害、悪意のある使用、自律型AIシステムに対する人間の制御の不可逆的な喪失を含むリスクについて説明する。
このようなリスクがどのように発生し、どのように管理するかについては、合意の欠如があります。
現在のガバナンスイニシアチブには、誤用や無謀を防ぎ、自律システムにほとんど対処するメカニズムや制度が欠けている。
論文 参考訳(メタデータ) (2023-10-26T17:59:06Z) - Statutory Professions in AI governance and their consequences for
explainable AI [2.363388546004777]
AIの使用によって引き起こされる意図的・偶発的な害は個人の健康、安全、権利に影響を及ぼした。
我々は、AI規制フレームワークの必須部分として、法定専門職の枠組みを導入することを提案する。
論文 参考訳(メタデータ) (2023-06-15T08:51:28Z) - Fairness in Agreement With European Values: An Interdisciplinary
Perspective on AI Regulation [61.77881142275982]
この学際的立場の論文は、AIにおける公平性と差別に関する様々な懸念を考察し、AI規制がそれらにどう対処するかについて議論する。
私たちはまず、法律、(AI)産業、社会技術、そして(道徳)哲学のレンズを通して、AIと公正性に注目し、様々な視点を提示します。
我々は、AI公正性の懸念の観点から、AI法の取り組みを成功に導くために、AIレギュレーションが果たす役割を特定し、提案する。
論文 参考訳(メタデータ) (2022-06-08T12:32:08Z) - An interdisciplinary conceptual study of Artificial Intelligence (AI)
for helping benefit-risk assessment practices: Towards a comprehensive
qualification matrix of AI programs and devices (pre-print 2020) [55.41644538483948]
本稿では,インテリジェンスの概念に対処するさまざまな分野の既存の概念を包括的に分析する。
目的は、AIシステムを評価するための共有概念や相違点を特定することである。
論文 参考訳(メタデータ) (2021-05-07T12:01:31Z) - Ethics and Governance of Artificial Intelligence: Evidence from a Survey
of Machine Learning Researchers [0.0]
機械学習(ML)と人工知能(AI)の研究者は、AIの倫理とガバナンスにおいて重要な役割を果たす。
トップクラスのAI/MLカンファレンスで公開した人々の調査を行った。
AI/MLの研究者たちは、国際組織や科学組織に対して高いレベルの信頼を置いている。
論文 参考訳(メタデータ) (2021-05-05T15:23:12Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。