論文の概要: When Openness Fails: Lessons from System Safety for Assessing Openness in AI
- arxiv url: http://arxiv.org/abs/2510.10732v1
- Date: Sun, 12 Oct 2025 18:08:00 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-14 18:06:30.089838
- Title: When Openness Fails: Lessons from System Safety for Assessing Openness in AI
- Title(参考訳): AIのオープン性を評価するためのシステム安全性から学んだこと
- Authors: Tamara Paris, Shalaleh Rismani,
- Abstract要約: システムの安全性から学んだ5つの教訓に適応し、システムレベルでオープン性を評価する方法についてガイダンスを提供します。
民主化や自治といったオープン性の意図された効果が実現されるかどうかを評価するためには、より包括的なアプローチが必要です。
- 参考スコア(独自算出の注目度): 2.2077181316192473
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Most frameworks for assessing the openness of AI systems use narrow criteria such as availability of data, model, code, documentation, and licensing terms. However, to evaluate whether the intended effects of openness - such as democratization and autonomy - are realized, we need a more holistic approach that considers the context of release: who will reuse the system, for what purposes, and under what conditions. To this end, we adapt five lessons from system safety that offer guidance on how openness can be evaluated at the system level.
- Abstract(参考訳): AIシステムのオープン性を評価するほとんどのフレームワークは、データ、モデル、コード、ドキュメント、ライセンス条件などの狭い基準を使用している。
しかし、民主化や自治といったオープン性の意図された効果が実現されるかどうかを評価するためには、リリースのコンテキストを考えるより包括的なアプローチが必要です。
この目的のために、システムの安全性から学んだ5つの教訓を適用し、システムレベルでのオープン性の評価方法についてガイダンスを提供する。
関連論文リスト
- Toward a Public and Secure Generative AI: A Comparative Analysis of Open and Closed LLMs [0.0]
本研究では,オープンかつクローズドな生成型AIモデルの特徴,機会,課題を批判的に評価し,比較することを目的とする。
提案されたフレームワークは、重要な側面、オープン性、パブリックガバナンス、セキュリティを、信頼できる、包括的なGen AIの未来を形成するための必須の柱として概説している。
論文 参考訳(メタデータ) (2025-05-15T15:21:09Z) - Re-evaluating Open-ended Evaluation of Large Language Models [50.23008729038318]
現在のEloベースのレーティングシステムは、データ、意図的、あるいは偶発的なバイアスの影響を受けやすく、さらに強化できることを示している。
本稿では,3人プレイヤゲームとしての評価を提案し,冗長性に対するロバスト性を確保するために,ゲーム理論の新たな概念を導入する。
論文 参考訳(メタデータ) (2025-02-27T15:07:47Z) - Toward a Principled Framework for Disclosure Avoidance [34.13680274689903]
データ利用者のニーズが変わるにつれて、機関は使用する開示回避システムを再設計する必要がある。
データの開示リスクに対応するために保護の強度を調整できるシステムの能力は、価値のある特徴である。
本稿では,これらの特徴を,選択したシステムから独立して行う必要がある実装決定とを区別する枠組みを提案する。
論文 参考訳(メタデータ) (2025-02-10T22:58:06Z) - Pessimistic Evaluation [58.736490198613154]
情報アクセスシステムの評価は,情報アクセスの伝統に沿わない実用的価値を前提としている。
我々は,最悪のケースユーティリティに着目した情報アクセスシステムの悲観的評価を提唱する。
論文 参考訳(メタデータ) (2024-10-17T15:40:09Z) - Trustworthiness in Retrieval-Augmented Generation Systems: A Survey [59.26328612791924]
Retrieval-Augmented Generation (RAG)は、大規模言語モデル(LLM)の開発において、急速に重要なパラダイムへと成長してきた。
本稿では,RAGシステムの信頼性を,事実性,堅牢性,公正性,透明性,説明責任,プライバシの6つの面で評価する統一的な枠組みを提案する。
論文 参考訳(メタデータ) (2024-09-16T09:06:44Z) - The Gradient of Generative AI Release: Methods and Considerations [0.0]
生成AIシステムへの6つのアクセスレベルを評価するためのフレームワークを提案する。
我々は、強力なシステムのための大企業のクローズネスに注目し、時間とともに生成システムリリースの傾向を示す。
また、生成システムの安全管理とガードレールを列挙し、将来のリリースを改善するために必要な投資を列挙する。
論文 参考訳(メタデータ) (2023-02-05T23:05:11Z) - Recursively Feasible Probabilistic Safe Online Learning with Control Barrier Functions [60.26921219698514]
CBFをベースとした安全クリティカルコントローラのモデル不確実性を考慮した再構成を提案する。
次に、結果の安全制御器のポイントワイズ実現可能性条件を示す。
これらの条件を利用して、イベントトリガーによるオンラインデータ収集戦略を考案する。
論文 参考訳(メタデータ) (2022-08-23T05:02:09Z) - Trustworthy AI [75.99046162669997]
入力データの小さな敵対的変化への脆さ、決定の説明能力、トレーニングデータのバイアスに対処する能力は、最も顕著な制限である。
我々は,AIシステムに対するユーザおよび公的な信頼を高める上での6つの重要な問題に対処するために,信頼に値するAIに関するチュートリアルを提案する。
論文 参考訳(メタデータ) (2020-11-02T20:04:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。