論文の概要: On the false election between regulation and innovation. Ideas for regulation through the responsible use of artificial intelligence in research and education.[Spanish version]
- arxiv url: http://arxiv.org/abs/2510.07268v1
- Date: Wed, 08 Oct 2025 17:33:46 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-09 16:41:20.665211
- Title: On the false election between regulation and innovation. Ideas for regulation through the responsible use of artificial intelligence in research and education.[Spanish version]
- Title(参考訳): 研究・教育における人工知能の責任利用による規制の考え方
- Authors: Pompeu Casanovas,
- Abstract要約: この短いエッセイは、AIHUB(Debate Session of the AIHUB)とEduCaixa Summer School(英語版)の著者による回答の再検討である。
1 規制フレームワークは、規制とイノベーションの誤った二分法に陥ることなく、AI開発における基本的権利の保護を優先するにはどうすればよいのか?
この記事はこれらの3つの質問に答えようと試み、教育と研究における回答の関連性についていくつかの考察を加えて結論付けている。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: This short essay is a reworking of the answers offered by the author at the Debate Session of the AIHUB (CSIC) and EduCaixa Summer School, organized by Marta Garcia-Matos and Lissette Lemus, and coordinated by Albert Sabater (OEIAC, UG), with the participation of Vanina Martinez-Posse (IIIA-CSIC), Eulalia Soler (Eurecat) and Pompeu Casanovas (IIIA-CSIC) on July 4th 2025. Albert Sabater posed three questions: (1) How can regulatory frameworks priori-tise the protection of fundamental rights (privacy, non-discrimination, autonomy, etc.) in the development of AI, without falling into the false dichotomy between regulation and innova-tion? (2) Given the risks of AI (bias, mass surveillance, manipulation), what examples of regu-lations or policies have demonstrated that it is possible to foster responsible innovation, putting the public interest before profitability, without giving in to competitive pressure from actors such as China or the US? (3) In a scenario where the US prioritizes flexibility, what mecha-nisms could ensure that international cooperation in AI does not become a race to the bottom in rights, but rather a global standard of accountability? The article attempts to answer these three questions and concludes with some reflections on the relevance of the answers for education and research.
- Abstract(参考訳): この短いエッセイは、2025年7月4日にマルタ・ガルシア=マトスとリセット・レマスが主催し、アルベルト・サバター(英語版)(OEIAC, UG)が調整したAIHUB(英語版)とEduCaixa Summer School(英語版)のディベート・セッション(英語版)(CSIC)の著者による回答の再検討である。
アルベルト・サバター(Albert Sabater)は、(1)AIの発展における基本的権利(プライバシ、非差別、自治など)の保護を規制とイノベーションの誤った二分法に陥ることなく優先する規制の枠組みは、どのようにして優先順位付けできるのか、という3つの疑問を提起した。
2)AI(バイアス,大量監視,操作)のリスクを考えると,中国や米国などの俳優の競争圧力に乗じずに,責任あるイノベーションを育むことが可能であることを,レギュレーションや政策の例は示している。
(3)米国が柔軟性を優先するシナリオでは、AIにおける国際協力が、権利の底辺への競争ではなく、説明責任のグローバル標準になることを保証するメカ・ナリズムはどのようなものか?
この記事はこれらの3つの質問に答えようと試み、教育と研究における回答の関連性についていくつかの考察を加えて結論付けている。
関連論文リスト
- Using AI Alignment Theory to understand the potential pitfalls of regulatory frameworks [55.2480439325792]
本稿では、欧州連合の人工知能法(EU AI法)を批判的に検討する。
人工知能における技術的アライメントの潜在的な落とし穴に焦点を当てたアライメント理論(AT)研究からの洞察を利用する。
これらの概念をEU AI Actに適用すると、潜在的な脆弱性と規制を改善するための領域が明らかになる。
論文 参考訳(メタデータ) (2024-10-10T17:38:38Z) - Don't Kill the Baby: The Case for AI in Arbitration [0.0]
連邦航空局(FAA)は、従来の予約にもかかわらず、当事者がAIによる仲裁を契約的に選択することを許可していると論じている。
仲裁におけるAIの使用を提唱することで、契約上の自律性を尊重することの重要性を強調している。
最終的には、仲裁におけるAIに対するバランスの取れたオープンなアプローチを求め、紛争解決の効率性、公平性、柔軟性を高める可能性を認識している。
論文 参考訳(メタデータ) (2024-08-21T13:34:20Z) - Towards Responsible AI in Banking: Addressing Bias for Fair
Decision-Making [69.44075077934914]
責任AI(Responsible AI)は、企業文化の発展におけるバイアスに対処する重要な性質を強調している。
この論文は、バイアスを理解すること、バイアスを緩和すること、バイアスを説明することの3つの基本的な柱に基づいて構成されている。
オープンソースの原則に従って、アクセス可能なPythonパッケージとして、Bias On DemandとFairViewをリリースしました。
論文 参考訳(メタデータ) (2024-01-13T14:07:09Z) - Report of the 1st Workshop on Generative AI and Law [78.62063815165968]
本報告では、生成AIと法に関する第1回ワークショップ(GenLaw)の開催状況について述べる。
コンピュータサイエンスと法学の実践者や学者の学際的なグループが集まり、ジェネレーティブAI法がもたらす技術的、教義的、政策上の課題について議論した。
論文 参考訳(メタデータ) (2023-11-11T04:13:37Z) - The European AI Liability Directives -- Critique of a Half-Hearted
Approach and Lessons for the Future [0.0]
欧州委員会は2022年9月に、欧州のAI責任に対するアプローチを概説する2つの提案を推進した。
後者は、影響を受けた人の個人的権利を一切含んでおらず、前者は、AI開発と展開に関する特定の実質的なルールを欠いている。
これらの行為は、AI規制におけるブリュッセル効果を誘発する可能性がある。
我々は、AI法における持続可能性影響評価と、債務制度における持続可能な設計欠陥を通じて、持続可能なAI規制を飛躍的に開始することを提案する。
論文 参考訳(メタデータ) (2022-11-25T09:08:11Z) - Fairness in Agreement With European Values: An Interdisciplinary
Perspective on AI Regulation [61.77881142275982]
この学際的立場の論文は、AIにおける公平性と差別に関する様々な懸念を考察し、AI規制がそれらにどう対処するかについて議論する。
私たちはまず、法律、(AI)産業、社会技術、そして(道徳)哲学のレンズを通して、AIと公正性に注目し、様々な視点を提示します。
我々は、AI公正性の懸念の観点から、AI法の取り組みを成功に導くために、AIレギュレーションが果たす役割を特定し、提案する。
論文 参考訳(メタデータ) (2022-06-08T12:32:08Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。