論文の概要: New Tools are Needed for Tracking Adherence to AI Model Behavioral Use Clauses
- arxiv url: http://arxiv.org/abs/2505.22287v1
- Date: Wed, 28 May 2025 12:26:55 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-29 17:35:50.591755
- Title: New Tools are Needed for Tracking Adherence to AI Model Behavioral Use Clauses
- Title(参考訳): AIモデルビヘイビア使用宣言に準拠する新しいツールが必要
- Authors: Daniel McDuff, Tim Korjakow, Kevin Klyman, Danish Contractor,
- Abstract要約: 悪質で悪意のあるAIの使用に関する懸念は、テクノロジーのリスクを制限するメカニズムの設計につながった。
その結果、行動利用条項と許容可能な利用政策を持つライセンスが急増した。
本稿では、これらのライセンスの採用と遵守を追跡するツールが次の自然なステップであると位置づける。
- 参考スコア(独自算出の注目度): 21.783728820999933
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: Foundation models have had a transformative impact on AI. A combination of large investments in research and development, growing sources of digital data for training, and architectures that scale with data and compute has led to models with powerful capabilities. Releasing assets is fundamental to scientific advancement and commercial enterprise. However, concerns over negligent or malicious uses of AI have led to the design of mechanisms to limit the risks of the technology. The result has been a proliferation of licenses with behavioral-use clauses and acceptable-use-policies that are increasingly being adopted by commonly used families of models (Llama, Gemma, Deepseek) and a myriad of smaller projects. We created and deployed a custom AI licenses generator to facilitate license creation and have quantitatively and qualitatively analyzed over 300 customized licenses created with this tool. Alongside this we analyzed 1.7 million models licenses on the HuggingFace model hub. Our results show increasing adoption of these licenses, interest in tools that support their creation and a convergence on common clause configurations. In this paper we take the position that tools for tracking adoption of, and adherence to, these licenses is the natural next step and urgently needed in order to ensure they have the desired impact of ensuring responsible use.
- Abstract(参考訳): ファンデーションモデルは、AIに変革的な影響を与えた。
研究開発への多大な投資、トレーニング用のデジタルデータソースの増加、データと計算をスケールするアーキテクチャの組み合わせによって、強力な能力を持つモデルが生まれました。
資産のリースは、科学的進歩と商業事業に不可欠である。
しかし、AIの悪用や悪用に対する懸念は、テクノロジーのリスクを制限するメカニズムの設計につながっている。
その結果、行動利用条項や許容可能な利用政策を持つライセンスが急増し、一般的に使われているモデルのファミリー(Llama、Gemma、Deepseek)や、無数の小さなプロジェクトによって採用されつつある。
私たちは、ライセンス作成を容易にするカスタムAIライセンスジェネレータを作成、デプロイし、このツールで作成された300以上のカスタマイズされたライセンスを定量的に質的に分析しました。
これと同時に、HuggingFaceモデルハブ上の170万のモデルライセンスを分析しました。
その結果、これらのライセンスの採用の増加、それらの作成をサポートするツールへの関心、および共通の条項設定への収束が示されている。
本稿では、これらのライセンスの採用と遵守を追跡するためのツールが、責任ある使用を確保する上で望ましい影響を確実にするために、自然の次のステップであり、緊急に必要なものであるという立場を取る。
関連論文リスト
- ToolACE-DEV: Self-Improving Tool Learning via Decomposition and EVolution [77.86222359025011]
ツール学習のための自己改善フレームワークであるToolACE-DEVを提案する。
まず、ツール学習の目的を、基本的なツール作成とツール利用能力を高めるサブタスクに分解する。
次に、軽量モデルによる自己改善を可能にする自己進化パラダイムを導入し、高度なLCMへの依存を減らす。
論文 参考訳(メタデータ) (2025-05-12T12:48:30Z) - Toward Neurosymbolic Program Comprehension [46.874490406174644]
我々は,既存のDL技術の強みと従来の象徴的手法を組み合わせたニューロシンボリック研究の方向性を提唱する。
第1回ニューロシンボリック・プログラム・フレームワークの確立をめざして,提案するアプローチの予備的結果を示す。
論文 参考訳(メタデータ) (2025-02-03T20:38:58Z) - "They've Stolen My GPL-Licensed Model!": Toward Standardized and Transparent Model Licensing [30.19362102481241]
我々は、MLワークフロー管理のための新しい語彙を開発し、ライセンスルールを符号化し、権利付与とコンプライアンスの問題を分析するためのオントロジ的推論を可能にする。
分析ツールは、Linked Open Model Dataへの第一歩として想定されている、Turtle言語とNotation3推論エンジンをベースにしています。
論文 参考訳(メタデータ) (2024-12-16T06:52:09Z) - Language Models in Software Development Tasks: An Experimental Analysis of Energy and Accuracy [40.793232371852795]
本稿では,言語モデルをローカルに展開する際のモデル精度とエネルギー消費のトレードオフについて検討する。
以上の結果から,LLMの高エネルギー化は必ずしも精度を著しく向上させるものではないことが示唆された。
大規模モデルの量子化バージョンは、一般的に中型のモデルに比べて効率と精度が良い。
論文 参考訳(メタデータ) (2024-11-30T03:02:50Z) - On the Standardization of Behavioral Use Clauses and Their Adoption for
Responsible Licensing of AI [27.748532981456464]
2018年、AI資産をリリースするためのフレームワークを提供するために、行動利用条項付きのライセンスが提案された。
2023年末時点で、4万のソフトウェアとモデルリポジトリの順序で、責任あるAIライセンスが採用されている。
論文 参考訳(メタデータ) (2024-02-07T22:29:42Z) - Scaling Laws Do Not Scale [54.72120385955072]
最近の研究によると、データセットのサイズが大きくなると、そのデータセットでトレーニングされたモデルのパフォーマンスが向上する。
このスケーリング法則の関係は、モデルのアウトプットの質を異なる集団がどのように認識するかと一致しないパフォーマンスを測定するために使われる指標に依存する、と我々は主張する。
異なるコミュニティは、互いに緊張関係にある価値を持ち、モデル評価に使用されるメトリクスについて、困難で、潜在的に不可能な選択をもたらす可能性がある。
論文 参考訳(メタデータ) (2023-07-05T15:32:21Z) - Publishing Efficient On-device Models Increases Adversarial
Vulnerability [58.6975494957865]
本稿では,大規模モデルのオンデバイス版を公開する際のセキュリティ上の考慮事項について検討する。
まず、敵がデバイス上のモデルを悪用し、大きなモデルを攻撃しやすくすることを示す。
次に、フルスケールと効率的なモデルとの類似性が増加するにつれて、脆弱性が増加することを示す。
論文 参考訳(メタデータ) (2022-12-28T05:05:58Z) - Automated Machine Learning: A Case Study on Non-Intrusive Appliance Load Monitoring [81.06807079998117]
非侵入的機器負荷モニタリング(NIALM)のための自動機械学習(AutoML)を実現する新しい手法を提案する。
NIALMは、電子機器や家電のエネルギー消費を測定するためのスマートメーターに代わる費用対効果を提供する。
論文 参考訳(メタデータ) (2022-03-06T10:12:56Z) - Data-Driven and SE-assisted AI Model Signal-Awareness Enhancement and
Introspection [61.571331422347875]
モデルの信号認識性を高めるためのデータ駆動型手法を提案する。
コード複雑性のSE概念とカリキュラム学習のAIテクニックを組み合わせる。
モデル信号認識における最大4.8倍の改善を実現している。
論文 参考訳(メタデータ) (2021-11-10T17:58:18Z) - Behavioral Use Licensing for Responsible AI [11.821476868900506]
我々は、ソフトウェアとコードに対する法的に強制可能な行動利用条件を可能にするために、ライセンスの使用を提唱する。
我々は、既存の責任あるAIガイドラインに従って、ライセンスがどのように実装されるかを考えます。
論文 参考訳(メタデータ) (2020-11-04T09:23:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。