論文の概要: Behavioral Use Licensing for Responsible AI
- arxiv url: http://arxiv.org/abs/2011.03116v2
- Date: Thu, 20 Oct 2022 22:39:24 GMT
- ステータス: 処理完了
- システム内更新日: 2023-04-25 07:24:33.352678
- Title: Behavioral Use Licensing for Responsible AI
- Title(参考訳): 責任あるAIのための行動利用ライセンス
- Authors: Danish Contractor and Daniel McDuff and Julia Haines and Jenny Lee and
Christopher Hines and Brent Hecht and Nicholas Vincent and Hanlin Li
- Abstract要約: 我々は、ソフトウェアとコードに対する法的に強制可能な行動利用条件を可能にするために、ライセンスの使用を提唱する。
我々は、既存の責任あるAIガイドラインに従って、ライセンスがどのように実装されるかを考えます。
- 参考スコア(独自算出の注目度): 11.821476868900506
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: With the growing reliance on artificial intelligence (AI) for many different
applications, the sharing of code, data, and models is important to ensure the
replicability and democratization of scientific knowledge. Many high-profile
academic publishing venues expect code and models to be submitted and released
with papers. Furthermore, developers often want to release these assets to
encourage development of technology that leverages their frameworks and
services. A number of organizations have expressed concerns about the
inappropriate or irresponsible use of AI and have proposed ethical guidelines
around the application of such systems. While such guidelines can help set
norms and shape policy, they are not easily enforceable. In this paper, we
advocate the use of licensing to enable legally enforceable behavioral use
conditions on software and code and provide several case studies that
demonstrate the feasibility of behavioral use licensing. We envision how
licensing may be implemented in accordance with existing responsible AI
guidelines.
- Abstract(参考訳): 多くの異なるアプリケーションに対する人工知能(AI)への依存が高まる中、コード、データ、モデルの共有は、科学的知識の複製性と民主化を保証するために重要である。
多くの著名な学術出版機関は、コードとモデルを提出し、論文とともに公開することを期待している。
さらに開発者は、フレームワークやサービスを活用するテクノロジの開発を促進するために、これらの資産をリリースすることが多い。
多くの組織は、AIの不適切または無責任な使用に対する懸念を表明し、そのようなシステムの適用に関する倫理的ガイドラインを提案している。
このようなガイドラインは規範の設定や方針形成に役立つが、簡単には強制できない。
本稿では,ソフトウェアおよびコード上で法的に強制可能な行動利用条件を実現するためのライセンスの使用を提唱し,行動利用ライセンスの実現可能性を示すいくつかのケーススタディを提供する。
我々は、既存の責任あるAIガイドラインに従って、ライセンスがどのように実装されるかを考えます。
関連論文リスト
- Using AI Alignment Theory to understand the potential pitfalls of regulatory frameworks [55.2480439325792]
本稿では、欧州連合の人工知能法(EU AI法)を批判的に検討する。
人工知能における技術的アライメントの潜在的な落とし穴に焦点を当てたアライメント理論(AT)研究からの洞察を利用する。
これらの概念をEU AI Actに適用すると、潜在的な脆弱性と規制を改善するための領域が明らかになる。
論文 参考訳(メタデータ) (2024-10-10T17:38:38Z) - A Path Towards Legal Autonomy: An interoperable and explainable approach to extracting, transforming, loading and computing legal information using large language models, expert systems and Bayesian networks [2.2192488799070444]
法的な自律性は、開発者やデプロイ者、ユーザといったAIアクターに制約を課すこと、あるいはAIエージェントが環境に与える影響の範囲と範囲に制約を課すことによって達成できる。
後者のアプローチでは、AI駆動デバイスに関する既存のルールを、それらのデバイスを制御するAIエージェントのソフトウェアにエンコードする。
このようなアプローチの有効性は、説明可能かつ法的に相互運用可能な法的情報を抽出、ロード、変換、計算する手法を必要とするため、これは課題である。
論文 参考訳(メタデータ) (2024-03-27T13:12:57Z) - On the Standardization of Behavioral Use Clauses and Their Adoption for
Responsible Licensing of AI [27.748532981456464]
2018年、AI資産をリリースするためのフレームワークを提供するために、行動利用条項付きのライセンスが提案された。
2023年末時点で、4万のソフトウェアとモデルリポジトリの順序で、責任あるAIライセンスが採用されている。
論文 参考訳(メタデータ) (2024-02-07T22:29:42Z) - Model Reporting for Certifiable AI: A Proposal from Merging EU
Regulation into AI Development [2.9620297386658185]
ExplainableとSafe AIの大きな進歩にもかかわらず、実践者はAIの安全性に関する規制と標準の欠如に悩まされている。
我々は、開発プロセス全体を通してAIアプリケーションを文書化するための標準化されたカードの使用を提案する。
論文 参考訳(メタデータ) (2023-07-21T12:13:54Z) - Foundation Models and Fair Use [96.04664748698103]
米国や他の国では、著作権のあるコンテンツは、公正な使用原理のために責任を負わずに基礎モデルを構築するために使われることがある。
本研究では,著作権コンテンツに基づく基礎モデルの開発と展開の潜在的なリスクについて調査する。
基礎モデルが公正な使用と一致し続けるのに役立つ技術的緩和について論じる。
論文 参考訳(メタデータ) (2023-03-28T03:58:40Z) - Lessons from Formally Verified Deployed Software Systems (Extended version) [65.69802414600832]
本稿は、正式に認証されたシステムを作成し、実際に使用するためにデプロイした各種のアプリケーション分野のプロジェクトについて検討する。
使用する技術、適用の形式、得られた結果、そしてソフトウェア産業が形式的な検証技術やツールの恩恵を受ける能力について示すべき教訓を考察する。
論文 参考訳(メタデータ) (2023-01-05T18:18:46Z) - Enabling Automated Machine Learning for Model-Driven AI Engineering [60.09869520679979]
モデル駆動型ソフトウェアエンジニアリングとモデル駆動型AIエンジニアリングを実現するための新しいアプローチを提案する。
特に、私たちはAutomated MLをサポートし、AI集約システムの開発において、AIの深い知識のないソフトウェアエンジニアを支援します。
論文 参考訳(メタデータ) (2022-03-06T10:12:56Z) - Actionable Approaches to Promote Ethical AI in Libraries [7.1492901819376415]
多くの領域で人工知能(AI)が広く使われていることで、多くの倫理的問題が明らかになっている。
現在、意図された、あるいはデプロイされたAIの倫理を計画し、評価し、監査するライブラリのための実践的なガイダンスは存在しない。
我々は、他の文脈から適応可能な倫理的AIを促進するためのいくつかの有望なアプローチについて報告する。
論文 参考訳(メタデータ) (2021-09-20T16:38:49Z) - An interdisciplinary conceptual study of Artificial Intelligence (AI)
for helping benefit-risk assessment practices: Towards a comprehensive
qualification matrix of AI programs and devices (pre-print 2020) [55.41644538483948]
本稿では,インテリジェンスの概念に対処するさまざまな分野の既存の概念を包括的に分析する。
目的は、AIシステムを評価するための共有概念や相違点を特定することである。
論文 参考訳(メタデータ) (2021-05-07T12:01:31Z) - ECCOLA -- a Method for Implementing Ethically Aligned AI Systems [11.31664099885664]
本稿では,AI倫理を実践する手法を提案する。
この手法であるECCOLAは循環行動設計研究手法を用いて反復的に開発されている。
論文 参考訳(メタデータ) (2020-04-17T17:57:07Z) - Toward Trustworthy AI Development: Mechanisms for Supporting Verifiable
Claims [59.64274607533249]
AI開発者は、責任を負うことのできる検証可能な主張をする必要がある。
このレポートは、さまざまな利害関係者がAIシステムに関するクレームの妥当性を改善するための様々なステップを示唆している。
我々は、この目的のための10のメカニズム、すなわち、組織、ソフトウェア、ハードウェアを分析し、それらのメカニズムの実装、探索、改善を目的とした推奨を行う。
論文 参考訳(メタデータ) (2020-04-15T17:15:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。