論文の概要: Bridge the Gaps between Machine Unlearning and AI Regulation
- arxiv url: http://arxiv.org/abs/2502.12430v1
- Date: Tue, 18 Feb 2025 02:03:03 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-02-19 14:08:02.684287
- Title: Bridge the Gaps between Machine Unlearning and AI Regulation
- Title(参考訳): 機械学習とAI規制のギャップを埋める
- Authors: Bill Marino, Meghdad Kurmanji, Nicholas D. Lane,
- Abstract要約: 欧州連合(EU)の人工知能法(AIA)のような人工知能規制のインバウンド波は、機械学習のための重要な新しいユースケースを提供する可能性がある。
このポジションペーパーは、この機会が実現されるのは、政策立案者によって支援された研究者が、機械学習の最先端技術とAI規制への潜在的な応用とのギャップを積極的に橋渡ししている場合のみである、と論じている。
- 参考スコア(独自算出の注目度): 13.42472216729373
- License:
- Abstract: The "right to be forgotten" and the data privacy laws that encode it have motivated machine unlearning since its earliest days. Now, an inbound wave of artificial intelligence regulations - like the European Union's Artificial Intelligence Act (AIA) - potentially offer important new use cases for machine unlearning. However, this position paper argues, this opportunity will only be realized if researchers, aided by policymakers, proactively bridge the (sometimes sizable) gaps between machine unlearning's state of the art and its potential applications to AI regulation. To demonstrate this point, we use the AIA as an example. Specifically, we deliver a "state of the union" as regards machine unlearning's current potential for aiding compliance with the AIA. This starts with a precise cataloging of the potential applications of machine unlearning to AIA compliance. For each, we flag any legal ambiguities clouding the potential application and, moreover, flag the technical gaps that exist between the potential application and the state of the art of machine unlearning. Finally, we end with a call to action: for both machine learning researchers and policymakers, to, respectively, solve the open technical and legal questions that will unlock machine unlearning's potential to assist compliance with the AIA - and other AI regulation like it.
- Abstract(参考訳): 忘れられる権利(right to be forget)"と、それをエンコードするデータプライバシー法(Data privacy law)は、マシンの学習を初期の頃から動機付けてきた。
今や、欧州連合(EU)の人工知能法(AIA)のような人工知能規制のインバウンド波は、機械学習のための重要な新しいユースケースを提供する可能性がある。
しかし、このポジションペーパーは、この機会が実現されるのは、政策立案者によって支援された研究者が、機械学習の最先端とAI規制への潜在的な応用の間の(時には相当な)ギャップを積極的に埋める場合のみである、と論じている。
この点を示すために、AIAを例に挙げる。
具体的には、AIAへのコンプライアンスを支援するマシンアンラーニングの現在の可能性について、「組合の状態」を提供する。
これは、機械学習からAIAコンプライアンスへの潜在的な応用の正確なカタログ化から始まる。
それぞれについて、潜在的なアプリケーションをクラウド化する法的曖昧さを警告し、さらに、潜在的なアプリケーションとマシンアンラーニングの最先端にある技術的ギャップを警告します。
マシンラーニングの研究者と政策立案者の両方がそれぞれ,AIAへのコンプライアンスを支援するマシンラーニングの可能性を解き放つような,オープンな技術的および法的疑問を解決します。
関連論文リスト
- Using AI Alignment Theory to understand the potential pitfalls of regulatory frameworks [55.2480439325792]
本稿では、欧州連合の人工知能法(EU AI法)を批判的に検討する。
人工知能における技術的アライメントの潜在的な落とし穴に焦点を当てたアライメント理論(AT)研究からの洞察を利用する。
これらの概念をEU AI Actに適用すると、潜在的な脆弱性と規制を改善するための領域が明らかになる。
論文 参考訳(メタデータ) (2024-10-10T17:38:38Z) - AI Cards: Towards an Applied Framework for Machine-Readable AI and Risk Documentation Inspired by the EU AI Act [2.1897070577406734]
その重要性にもかかわらず、AI法に沿ったAIとリスクドキュメントの作成を支援するための標準やガイドラインが欠如している。
提案するAIカードは,AIシステムの意図した使用を表現するための,新しい総合的なフレームワークである。
論文 参考訳(メタデータ) (2024-06-26T09:51:49Z) - A Path Towards Legal Autonomy: An interoperable and explainable approach to extracting, transforming, loading and computing legal information using large language models, expert systems and Bayesian networks [2.2192488799070444]
法的な自律性は、開発者やデプロイ者、ユーザといったAIアクターに制約を課すこと、あるいはAIエージェントが環境に与える影響の範囲と範囲に制約を課すことによって達成できる。
後者のアプローチでは、AI駆動デバイスに関する既存のルールを、それらのデバイスを制御するAIエージェントのソフトウェアにエンコードする。
このようなアプローチの有効性は、説明可能かつ法的に相互運用可能な法的情報を抽出、ロード、変換、計算する手法を必要とするため、これは課題である。
論文 参考訳(メタデータ) (2024-03-27T13:12:57Z) - How VADER is your AI? Towards a definition of artificial intelligence systems appropriate for regulation [39.58317527488534]
最近のAI規制提案では、ICT技術、アプローチ、AIではないシステムに影響を与えるAI定義が採用されている。
本稿では,AI定義の規制(VADER)が適切に定義されているかを評価するためのフレームワークを提案する。
論文 参考訳(メタデータ) (2024-02-07T17:41:15Z) - Trust, Accountability, and Autonomy in Knowledge Graph-based AI for
Self-determination [1.4305544869388402]
知識グラフ(KG)は、インテリジェントな意思決定を支えるための基盤として登場した。
KGと神経学習の統合は、現在活発な研究のトピックである。
本稿では,KGベースのAIによる自己決定を支援するための基礎的なトピックと研究の柱を概念化する。
論文 参考訳(メタデータ) (2023-10-30T12:51:52Z) - Selected Trends in Artificial Intelligence for Space Applications [69.3474006357492]
この章は、差別化可能なインテリジェンスとオンボード機械学習に焦点を当てている。
欧州宇宙機関(ESA)Advanced Concepts Team(ACT)から選ばれたいくつかのプロジェクトについて論じる。
論文 参考訳(メタデータ) (2022-12-10T07:49:50Z) - Fairness in Agreement With European Values: An Interdisciplinary
Perspective on AI Regulation [61.77881142275982]
この学際的立場の論文は、AIにおける公平性と差別に関する様々な懸念を考察し、AI規制がそれらにどう対処するかについて議論する。
私たちはまず、法律、(AI)産業、社会技術、そして(道徳)哲学のレンズを通して、AIと公正性に注目し、様々な視点を提示します。
我々は、AI公正性の懸念の観点から、AI法の取り組みを成功に導くために、AIレギュレーションが果たす役割を特定し、提案する。
論文 参考訳(メタデータ) (2022-06-08T12:32:08Z) - Enabling Automated Machine Learning for Model-Driven AI Engineering [60.09869520679979]
モデル駆動型ソフトウェアエンジニアリングとモデル駆動型AIエンジニアリングを実現するための新しいアプローチを提案する。
特に、私たちはAutomated MLをサポートし、AI集約システムの開発において、AIの深い知識のないソフトウェアエンジニアを支援します。
論文 参考訳(メタデータ) (2022-03-06T10:12:56Z) - Building Bridges: Generative Artworks to Explore AI Ethics [56.058588908294446]
近年,人工知能(AI)技術が社会に与える影響の理解と緩和に重点が置かれている。
倫理的AIシステムの設計における重要な課題は、AIパイプラインには複数の利害関係者があり、それぞれがそれぞれ独自の制約と関心を持っていることだ。
このポジションペーパーは、生成的アートワークが、アクセス可能で強力な教育ツールとして機能することで、この役割を果たすことができる可能性のいくつかを概説する。
論文 参考訳(メタデータ) (2021-06-25T22:31:55Z) - An interdisciplinary conceptual study of Artificial Intelligence (AI)
for helping benefit-risk assessment practices: Towards a comprehensive
qualification matrix of AI programs and devices (pre-print 2020) [55.41644538483948]
本稿では,インテリジェンスの概念に対処するさまざまな分野の既存の概念を包括的に分析する。
目的は、AIシステムを評価するための共有概念や相違点を特定することである。
論文 参考訳(メタデータ) (2021-05-07T12:01:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。