論文の概要: Artificial Intelligence Policy Framework for Institutions
- arxiv url: http://arxiv.org/abs/2412.02834v1
- Date: Tue, 03 Dec 2024 20:56:47 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-12-05 15:09:19.590034
- Title: Artificial Intelligence Policy Framework for Institutions
- Title(参考訳): 施設における人工知能政策の枠組み
- Authors: William Franz Lamberti,
- Abstract要約: 本稿では,機関内におけるAIポリシ開発における重要な考慮事項について述べる。
我々は、AI要素の解釈可能性と説明可能性の重要性、バイアスを緩和し、プライバシーを確保する必要性について検討する。
- 参考スコア(独自算出の注目度): 0.0
- License:
- Abstract: Artificial intelligence (AI) has transformed various sectors and institutions, including education and healthcare. Although AI offers immense potential for innovation and problem solving, its integration also raises significant ethical concerns, such as privacy and bias. This paper delves into key considerations for developing AI policies within institutions. We explore the importance of interpretability and explainability in AI elements, as well as the need to mitigate biases and ensure privacy. Additionally, we discuss the environmental impact of AI and the importance of energy-efficient practices. The culmination of these important components is centralized in a generalized framework to be utilized for institutions developing their AI policy. By addressing these critical factors, institutions can harness the power of AI while safeguarding ethical principles.
- Abstract(参考訳): 人工知能(AI)は教育や医療など様々な分野や機関を変革してきた。
AIはイノベーションや問題解決に大きな可能性を秘めているが、その統合はプライバシーや偏見などの倫理的懸念も引き起こす。
本稿では,機関内におけるAIポリシ開発における重要な考慮事項について述べる。
我々は、AI要素の解釈可能性と説明可能性の重要性、バイアスを緩和し、プライバシーを確保する必要性について検討する。
さらに,AIの環境影響とエネルギー効率性の重要性についても論じる。
これらの重要なコンポーネントの完成は、AIポリシーを開発する機関に利用される一般化されたフレームワークに集約されている。
これらの重要な要因に対処することで、機関は倫理的原則を守りながらAIの力を利用することができる。
関連論文リスト
- From Principles to Practice: A Deep Dive into AI Ethics and Regulations [13.753819576072127]
この記事では、欧州連合が提案する画期的なAI規制フレームワークについて、徹底的に分析する。
学術や産業がこれらの原則を守ろうとする技術的努力と戦略を考えると、我々は5つの倫理的原則の相乗効果と矛盾を探求する。
論文 参考訳(メタデータ) (2024-12-06T00:46:20Z) - Using AI Alignment Theory to understand the potential pitfalls of regulatory frameworks [55.2480439325792]
本稿では、欧州連合の人工知能法(EU AI法)を批判的に検討する。
人工知能における技術的アライメントの潜在的な落とし穴に焦点を当てたアライメント理論(AT)研究からの洞察を利用する。
これらの概念をEU AI Actに適用すると、潜在的な脆弱性と規制を改善するための領域が明らかになる。
論文 参考訳(メタデータ) (2024-10-10T17:38:38Z) - Towards a Privacy and Security-Aware Framework for Ethical AI: Guiding
the Development and Assessment of AI Systems [0.0]
本研究は2020年から2023年までの系統的な文献レビューを行う。
本研究は,SLRから抽出した知識の合成を通じて,プライバシとセキュリティを意識したAIシステムに適した概念的枠組みを提案する。
論文 参考訳(メタデータ) (2024-03-13T15:39:57Z) - Towards Responsible AI in Banking: Addressing Bias for Fair
Decision-Making [69.44075077934914]
責任AI(Responsible AI)は、企業文化の発展におけるバイアスに対処する重要な性質を強調している。
この論文は、バイアスを理解すること、バイアスを緩和すること、バイアスを説明することの3つの基本的な柱に基づいて構成されている。
オープンソースの原則に従って、アクセス可能なPythonパッケージとして、Bias On DemandとFairViewをリリースしました。
論文 参考訳(メタデータ) (2024-01-13T14:07:09Z) - The Global Impact of AI-Artificial Intelligence: Recent Advances and
Future Directions, A Review [0.0]
この記事では、経済的、倫理的、社会的、セキュリティとプライバシ、仕事のずれといった、AIの影響を強調している。
偏見、セキュリティ、プライバシー侵害などの問題を含む、AI開発に関する倫理的懸念について論じている。
この記事は、社会全体にAIが及ぼす影響の認識と理解を促進するために、公的なエンゲージメントと教育の重要性を強調して締めくくっている。
論文 参考訳(メタデータ) (2023-12-22T00:41:21Z) - Survey on AI Ethics: A Socio-technical Perspective [0.9374652839580183]
AIに関連する倫理的懸念には、公正性、プライバシとデータ保護、責任と説明責任、安全性と堅牢性、透明性と説明可能性、環境への影響といった課題が含まれている。
この研究は、AIを社会に展開する際の現在と将来の倫理的懸念を統一する。
論文 参考訳(メタデータ) (2023-11-28T21:00:56Z) - A Review of the Ethics of Artificial Intelligence and its Applications
in the United States [0.0]
この論文は、AIが米国経済のあらゆる分野に与える影響と、ビジネス、政府、アカデミック、そして市民社会にまたがる組織に与える影響を強調している。
我々の議論は、包括的なテーマとして構成された11の基本的な「倫理的原則」を探求する。
これらは透明性、正義、公正、平等、非正当性、責任、説明責任、プライバシー、利益、自由、自律、信頼、尊厳、持続可能性、連帯性を含む。
論文 参考訳(メタデータ) (2023-10-09T14:29:00Z) - Fairness in Agreement With European Values: An Interdisciplinary
Perspective on AI Regulation [61.77881142275982]
この学際的立場の論文は、AIにおける公平性と差別に関する様々な懸念を考察し、AI規制がそれらにどう対処するかについて議論する。
私たちはまず、法律、(AI)産業、社会技術、そして(道徳)哲学のレンズを通して、AIと公正性に注目し、様々な視点を提示します。
我々は、AI公正性の懸念の観点から、AI法の取り組みを成功に導くために、AIレギュレーションが果たす役割を特定し、提案する。
論文 参考訳(メタデータ) (2022-06-08T12:32:08Z) - Building Bridges: Generative Artworks to Explore AI Ethics [56.058588908294446]
近年,人工知能(AI)技術が社会に与える影響の理解と緩和に重点が置かれている。
倫理的AIシステムの設計における重要な課題は、AIパイプラインには複数の利害関係者があり、それぞれがそれぞれ独自の制約と関心を持っていることだ。
このポジションペーパーは、生成的アートワークが、アクセス可能で強力な教育ツールとして機能することで、この役割を果たすことができる可能性のいくつかを概説する。
論文 参考訳(メタデータ) (2021-06-25T22:31:55Z) - An interdisciplinary conceptual study of Artificial Intelligence (AI)
for helping benefit-risk assessment practices: Towards a comprehensive
qualification matrix of AI programs and devices (pre-print 2020) [55.41644538483948]
本稿では,インテリジェンスの概念に対処するさまざまな分野の既存の概念を包括的に分析する。
目的は、AIシステムを評価するための共有概念や相違点を特定することである。
論文 参考訳(メタデータ) (2021-05-07T12:01:31Z) - Toward Trustworthy AI Development: Mechanisms for Supporting Verifiable
Claims [59.64274607533249]
AI開発者は、責任を負うことのできる検証可能な主張をする必要がある。
このレポートは、さまざまな利害関係者がAIシステムに関するクレームの妥当性を改善するための様々なステップを示唆している。
我々は、この目的のための10のメカニズム、すなわち、組織、ソフトウェア、ハードウェアを分析し、それらのメカニズムの実装、探索、改善を目的とした推奨を行う。
論文 参考訳(メタデータ) (2020-04-15T17:15:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。