論文の概要: Behavioral Use Licensing for Responsible AI
- arxiv url: http://arxiv.org/abs/2011.03116v2
- Date: Thu, 20 Oct 2022 22:39:24 GMT
- ステータス: 処理完了
- システム内更新日: 2023-04-25 07:24:33.352678
- Title: Behavioral Use Licensing for Responsible AI
- Title(参考訳): 責任あるAIのための行動利用ライセンス
- Authors: Danish Contractor and Daniel McDuff and Julia Haines and Jenny Lee and
Christopher Hines and Brent Hecht and Nicholas Vincent and Hanlin Li
- Abstract要約: 我々は、ソフトウェアとコードに対する法的に強制可能な行動利用条件を可能にするために、ライセンスの使用を提唱する。
我々は、既存の責任あるAIガイドラインに従って、ライセンスがどのように実装されるかを考えます。
- 参考スコア(独自算出の注目度): 11.821476868900506
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: With the growing reliance on artificial intelligence (AI) for many different
applications, the sharing of code, data, and models is important to ensure the
replicability and democratization of scientific knowledge. Many high-profile
academic publishing venues expect code and models to be submitted and released
with papers. Furthermore, developers often want to release these assets to
encourage development of technology that leverages their frameworks and
services. A number of organizations have expressed concerns about the
inappropriate or irresponsible use of AI and have proposed ethical guidelines
around the application of such systems. While such guidelines can help set
norms and shape policy, they are not easily enforceable. In this paper, we
advocate the use of licensing to enable legally enforceable behavioral use
conditions on software and code and provide several case studies that
demonstrate the feasibility of behavioral use licensing. We envision how
licensing may be implemented in accordance with existing responsible AI
guidelines.
- Abstract(参考訳): 多くの異なるアプリケーションに対する人工知能(AI)への依存が高まる中、コード、データ、モデルの共有は、科学的知識の複製性と民主化を保証するために重要である。
多くの著名な学術出版機関は、コードとモデルを提出し、論文とともに公開することを期待している。
さらに開発者は、フレームワークやサービスを活用するテクノロジの開発を促進するために、これらの資産をリリースすることが多い。
多くの組織は、AIの不適切または無責任な使用に対する懸念を表明し、そのようなシステムの適用に関する倫理的ガイドラインを提案している。
このようなガイドラインは規範の設定や方針形成に役立つが、簡単には強制できない。
本稿では,ソフトウェアおよびコード上で法的に強制可能な行動利用条件を実現するためのライセンスの使用を提唱し,行動利用ライセンスの実現可能性を示すいくつかのケーススタディを提供する。
我々は、既存の責任あるAIガイドラインに従って、ライセンスがどのように実装されるかを考えます。
関連論文リスト
- On the Standardization of Behavioral Use Clauses and Their Adoption for
Responsible Licensing of AI [27.748532981456464]
2018年、AI資産をリリースするためのフレームワークを提供するために、行動利用条項付きのライセンスが提案された。
2023年末時点で、4万のソフトウェアとモデルリポジトリの順序で、責任あるAIライセンスが採用されている。
論文 参考訳(メタデータ) (2024-02-07T22:29:42Z) - Model Reporting for Certifiable AI: A Proposal from Merging EU
Regulation into AI Development [2.9620297386658185]
ExplainableとSafe AIの大きな進歩にもかかわらず、実践者はAIの安全性に関する規制と標準の欠如に悩まされている。
我々は、開発プロセス全体を通してAIアプリケーションを文書化するための標準化されたカードの使用を提案する。
論文 参考訳(メタデータ) (2023-07-21T12:13:54Z) - Foundation Models and Fair Use [96.04664748698103]
米国や他の国では、著作権のあるコンテンツは、公正な使用原理のために責任を負わずに基礎モデルを構築するために使われることがある。
本研究では,著作権コンテンツに基づく基礎モデルの開発と展開の潜在的なリスクについて調査する。
基礎モデルが公正な使用と一致し続けるのに役立つ技術的緩和について論じる。
論文 参考訳(メタデータ) (2023-03-28T03:58:40Z) - AI Usage Cards: Responsibly Reporting AI-generated Content [25.848910414962337]
ChatGPTのようなAIシステムが、人間による作業と区別できないコンテンツを生成できることを考えると、この技術の責任を負うことが懸念される。
我々は、AIの責任ある使用を定義するために、透明性、完全性、説明責任からなる3次元モデルを提案する。
第2に、科学研究におけるAIの使用を報告するための標準化された方法である「AI Usage Cards」を紹介する。
論文 参考訳(メタデータ) (2023-02-16T08:41:31Z) - Enabling Automated Machine Learning for Model-Driven AI Engineering [60.09869520679979]
モデル駆動型ソフトウェアエンジニアリングとモデル駆動型AIエンジニアリングを実現するための新しいアプローチを提案する。
特に、私たちはAutomated MLをサポートし、AI集約システムの開発において、AIの深い知識のないソフトウェアエンジニアを支援します。
論文 参考訳(メタデータ) (2022-03-06T10:12:56Z) - Actionable Approaches to Promote Ethical AI in Libraries [7.1492901819376415]
多くの領域で人工知能(AI)が広く使われていることで、多くの倫理的問題が明らかになっている。
現在、意図された、あるいはデプロイされたAIの倫理を計画し、評価し、監査するライブラリのための実践的なガイダンスは存在しない。
我々は、他の文脈から適応可能な倫理的AIを促進するためのいくつかの有望なアプローチについて報告する。
論文 参考訳(メタデータ) (2021-09-20T16:38:49Z) - An interdisciplinary conceptual study of Artificial Intelligence (AI)
for helping benefit-risk assessment practices: Towards a comprehensive
qualification matrix of AI programs and devices (pre-print 2020) [55.41644538483948]
本稿では,インテリジェンスの概念に対処するさまざまな分野の既存の概念を包括的に分析する。
目的は、AIシステムを評価するための共有概念や相違点を特定することである。
論文 参考訳(メタデータ) (2021-05-07T12:01:31Z) - A Methodology for Creating AI FactSheets [67.65802440158753]
本稿では、FactSheetsと呼ぶAIドキュメントの形式を作るための方法論について述べる。
方法論の各ステップの中で、検討すべき問題と探求すべき質問について説明する。
この方法論は、透明なAIドキュメントの採用を加速する。
論文 参考訳(メタデータ) (2020-06-24T15:08:59Z) - ECCOLA -- a Method for Implementing Ethically Aligned AI Systems [11.31664099885664]
本稿では,AI倫理を実践する手法を提案する。
この手法であるECCOLAは循環行動設計研究手法を用いて反復的に開発されている。
論文 参考訳(メタデータ) (2020-04-17T17:57:07Z) - Toward Trustworthy AI Development: Mechanisms for Supporting Verifiable
Claims [59.64274607533249]
AI開発者は、責任を負うことのできる検証可能な主張をする必要がある。
このレポートは、さまざまな利害関係者がAIシステムに関するクレームの妥当性を改善するための様々なステップを示唆している。
我々は、この目的のための10のメカニズム、すなわち、組織、ソフトウェア、ハードウェアを分析し、それらのメカニズムの実装、探索、改善を目的とした推奨を行う。
論文 参考訳(メタデータ) (2020-04-15T17:15:35Z) - On the Morality of Artificial Intelligence [154.69452301122175]
本稿では,機械学習の研究・展開に関する概念的かつ実践的な原則とガイドラインを提案する。
我々は,より倫理的で道徳的なMLの実践を追求するために,実践者が採る具体的な行動を主張している。
論文 参考訳(メタデータ) (2019-12-26T23:06:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。