論文の概要: Trustworthiness Preservation by Copies of Machine Learning Systems
- arxiv url: http://arxiv.org/abs/2506.05203v1
- Date: Thu, 05 Jun 2025 16:14:57 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-06 21:53:49.812578
- Title: Trustworthiness Preservation by Copies of Machine Learning Systems
- Title(参考訳): 機械学習システムのコピーによる信頼性の保全
- Authors: Leonardo Ceragioli, Giuseppe Primiero,
- Abstract要約: データ上で複雑なクエリをモデル化し、検証するための計算を導入します。
我々は4つの異なる概念を定義している: 正当性、平等性、弱大性、ほぼ信頼に値する。
目的は、振る舞いが分かっているオリジナルのシステムからコピーされた、おそらく複雑なシステムの信頼性をチェックするための計算ツールを提供することである。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: A common practice of ML systems development concerns the training of the same model under different data sets, and the use of the same (training and test) sets for different learning models. The first case is a desirable practice for identifying high quality and unbiased training conditions. The latter case coincides with the search for optimal models under a common dataset for training. These differently obtained systems have been considered akin to copies. In the quest for responsible AI, a legitimate but hardly investigated question is how to verify that trustworthiness is preserved by copies. In this paper we introduce a calculus to model and verify probabilistic complex queries over data and define four distinct notions: Justifiably, Equally, Weakly and Almost Trustworthy which can be checked analysing the (partial) behaviour of the copy with respect to its original. We provide a study of the relations between these notions of trustworthiness, and how they compose with each other and under logical operations. The aim is to offer a computational tool to check the trustworthiness of possibly complex systems copied from an original whose behavour is known.
- Abstract(参考訳): MLシステム開発の一般的な実践は、異なるデータセットの下で同じモデルのトレーニングと、異なる学習モデルに対する同じ(トレーニングとテスト)セットの使用に関するものである。
最初のケースは、高品質で偏りのないトレーニング条件を特定するための望ましいプラクティスです。
後者の場合、トレーニングのための共通のデータセットの下で最適なモデルを探すのと一致する。
これらの異なる体系はコピーと類似していると考えられている。
責任あるAIを求める中で、合法的だがほとんど調査されていない疑問は、コピーによって信頼性が保持されていることを検証することである。
本稿では,データ上での確率的複雑なクエリをモデル化し,検証するための計算を導入し,元のコピーの(部分的な)振る舞いを解析できる,Justifiably,Equally,Weakly,Some Trustworthyの4つの異なる概念を定義した。
我々は、これらの信頼性の概念とそれらがどのように構成され、論理的操作の下でどのように構成されるかの関係について研究する。
目的は、振る舞いが分かっているオリジナルのシステムからコピーされた、おそらく複雑なシステムの信頼性をチェックするための計算ツールを提供することである。
関連論文リスト
- Independence Tests for Language Models [47.0749292650885]
2つのモデルの重みを考えると、独立してトレーニングされたかどうかテストできますか?
制約付きと制約なしの2つの設定を検討します。
本稿では,2つのモデル間の隠れアクティベーションに一致し,逆変換やモデルアーキテクチャの変更に対して堅牢な新しいテストを提案する。
論文 参考訳(メタデータ) (2025-02-17T20:01:08Z) - Uncertainty Estimation for Language Reward Models [5.33024001730262]
言語モデルは、テキストコーパスの教師なしトレーニングからさまざまな能力を学ぶことができる。
人間がラベル付きデータを提供するよりも選択肢を選択する方が簡単であり、事前の作業はそのような選好比較から報酬モデルをトレーニングすることで最先端のパフォーマンスを達成した。
能動的学習とリスク-逆強化学習を用いてサンプル効率とロバスト性を向上させる不確実性推定によるこれらの問題に対処することを模索する。
論文 参考訳(メタデータ) (2022-03-14T20:13:21Z) - Conformal Prediction Under Feedback Covariate Shift for Biomolecular Design [56.86533144730384]
本稿では,トレーニングデータとテストデータが統計的に依存した環境での予測不確実性を定量化する手法を提案する。
モチベーション・ユースケースとして,本手法が設計したタンパク質の適合性予測の不確かさを定量化する方法を実データで示す。
論文 参考訳(メタデータ) (2022-02-08T02:59:12Z) - Don't Just Blame Over-parametrization for Over-confidence: Theoretical
Analysis of Calibration in Binary Classification [58.03725169462616]
理論上は、過剰パラメトリゼーションは過剰信頼の唯一の理由ではない。
我々は、ロジスティック回帰は本質的に信頼過剰であり、実現可能で、非パラメータな設定であることを示す。
おそらく驚くことに、過剰な信頼が常にそうであるとは限らないことも示します。
論文 参考訳(メタデータ) (2021-02-15T21:38:09Z) - Decentralized Federated Learning Preserves Model and Data Privacy [77.454688257702]
我々は、訓練されたモデル間で知識を共有することができる、完全に分散化されたアプローチを提案する。
生徒は、合成された入力データを通じて教師の出力を訓練する。
その結果,教師が学習した未学習学生モデルが,教師と同等のF1スコアに達することがわかった。
論文 参考訳(メタデータ) (2021-02-01T14:38:54Z) - Towards Understanding Ensemble, Knowledge Distillation and
Self-Distillation in Deep Learning [93.18238573921629]
本研究では,学習モデルのアンサンブルがテスト精度を向上させる方法と,アンサンブルの優れた性能を単一モデルに蒸留する方法について検討する。
深層学習におけるアンサンブル/知識蒸留は,従来の学習理論とは大きく異なる。
また, 自己蒸留は, アンサンブルと知識蒸留を暗黙的に組み合わせて, 試験精度を向上させることができることを示した。
論文 参考訳(メタデータ) (2020-12-17T18:34:45Z) - Wisdom of the Ensemble: Improving Consistency of Deep Learning Models [11.230300336108018]
信頼はしばしば一定の行動の関数である。
本稿では,配備モデルの周期的再学習の文脈におけるモデル挙動について検討する。
アンサンブル学習者の整合性と整合性は,個々の学習者の平均整合性と整合性に劣らないことを示す。
論文 参考訳(メタデータ) (2020-11-13T07:47:01Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。