論文の概要: The Care Label Concept: A Certification Suite for Trustworthy and
Resource-Aware Machine Learning
- arxiv url: http://arxiv.org/abs/2106.00512v1
- Date: Tue, 1 Jun 2021 14:16:41 GMT
- ステータス: 処理完了
- システム内更新日: 2021-06-02 14:12:08.578334
- Title: The Care Label Concept: A Certification Suite for Trustworthy and
Resource-Aware Machine Learning
- Title(参考訳): Care Label の概念: 信頼とリソースを意識した機械学習のための認定スイート
- Authors: Katharina Morik and Helena Kotthaus and Lukas Heppe and Danny Heinrich
and Raphael Fischer and Andreas Pauly and Nico Piatkowski
- Abstract要約: 機械学習アプリケーションがユビキタスになった。これにより、マシンラーニングを信頼できるものにするための努力が増えた。
メソッドや学習モデルを理解するために時間を費やしたくない人のために、ケアラベルを提供しています。
ケアラベルは、保証が保持されているかどうかをテストする認定スイートの結果です。
- 参考スコア(独自算出の注目度): 5.684803689061448
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Machine learning applications have become ubiquitous. This has led to an
increased effort of making machine learning trustworthy. Explainable and fair
AI have already matured. They address knowledgeable users and application
engineers. For those who do not want to invest time into understanding the
method or the learned model, we offer care labels: easy to understand at a
glance, allowing for method or model comparisons, and, at the same time,
scientifically well-based. On one hand, this transforms descriptions as given
by, e.g., Fact Sheets or Model Cards, into a form that is well-suited for
end-users. On the other hand, care labels are the result of a certification
suite that tests whether stated guarantees hold. In this paper, we present two
experiments with our certification suite. One shows the care labels for
configurations of Markov random fields (MRFs). Based on the underlying theory
of MRFs, each choice leads to its specific rating of static properties like,
e.g., expressivity and reliability. In addition, the implementation is tested
and resource consumption is measured yielding dynamic properties. This
two-level procedure is followed by another experiment certifying deep neural
network (DNN) models. There, we draw the static properties from the literature
on a particular model and data set. At the second level, experiments are
generated that deliver measurements of robustness against certain attacks. We
illustrate this by ResNet-18 and MobileNetV3 applied to ImageNet.
- Abstract(参考訳): 機械学習アプリケーションはユビキタスになった。
これにより、機械学習を信頼できるものにする努力が増えた。
説明可能な公正なAIはすでに成熟しています。
彼らは知識のあるユーザとアプリケーションエンジニアに対処する。
方法や学習したモデルを理解するのに時間を投資したくない人のために、私たちはケアラベルを提供しています。
これは、例えばファクトシートやモデルカードのような記述をエンドユーザーに適した形式に変換する。
一方、ケアラベルは、保証が守られているかどうかをテストする認証スイートの結果である。
本稿では,認証スイートを用いて2つの実験を行った。
ひとつは、マルコフランダムフィールド(MRF)の設定のためのケアラベルを示す。
MRFの基本理論に基づいて、それぞれの選択は、例えば表現性と信頼性のような静的特性の特定の評価につながる。
さらに、実装をテストし、動的特性を産出するリソース消費量を計測する。
この2段階の手順に続いて、ディープニューラルネットワーク(DNN)モデルを認定する別の実験が行われる。
そこで、特定のモデルとデータセットに基づいて、文献から静的な特性を描画する。
第2のレベルでは、特定の攻撃に対する堅牢性の測定を提供する実験が生成される。
ResNet-18 と MobileNetV3 が ImageNet に適用した。
関連論文リスト
- Laminator: Verifiable ML Property Cards using Hardware-assisted Attestations [10.278905067763686]
悪意のあるモデルプロバイダは、MLプロパティカードに偽情報を含めることができ、MLプロパティカードの必要性を高めることができる。
実証者(例えば、モデル提供者)が、訓練中に異なるMLプロパティを証明し、検証者(例えば、監査者)に推論する技術メカニズムを用いて、それらを実現する方法を示す。
論文 参考訳(メタデータ) (2024-06-25T13:36:53Z) - Automated Trustworthiness Testing for Machine Learning Classifiers [3.3423762257383207]
本稿では,テキスト分類器が信頼に値するかどうかを判断する信頼度オラクルを自動生成するTOWERを提案する。
我々の仮説は、その説明中の単語が予測されたクラスと意味的に関連している場合、予測は信頼に値するというものである。
その結果,TOWERはノイズの増加に伴って信頼性の低下を検出することができるが,人為的ラベル付きデータセットに対して評価しても有効ではないことがわかった。
論文 参考訳(メタデータ) (2024-06-07T20:25:05Z) - Label-Retrieval-Augmented Diffusion Models for Learning from Noisy
Labels [61.97359362447732]
ノイズの多いラベルからの学習は、実際のアプリケーションのための機械学習において、重要かつ長年にわたる問題である。
本稿では,生成モデルの観点からラベルノイズ問題を再構成する。
我々のモデルは、標準的な実世界のベンチマークデータセットで新しいSOTA(State-of-the-art)結果を達成する。
論文 参考訳(メタデータ) (2023-05-31T03:01:36Z) - Provable Robustness for Streaming Models with a Sliding Window [51.85182389861261]
オンラインコンテンツレコメンデーションや株式市場分析のようなディープラーニングアプリケーションでは、モデルは過去のデータを使って予測を行う。
入力ストリーム上の固定サイズのスライディングウインドウを使用するモデルに対して、ロバスト性証明を導出する。
私たちの保証は、ストリーム全体の平均モデルパフォーマンスを保ち、ストリームサイズに依存しないので、大きなデータストリームに適しています。
論文 参考訳(メタデータ) (2023-03-28T21:02:35Z) - Solution for the EPO CodeFest on Green Plastics: Hierarchical
multi-label classification of patents relating to green plastics using deep
learning [4.050982413149992]
本研究の目的は,グリーンプラスチック関連技術開示特許の階層的多ラベル特許分類である。
本稿ではまず,この技術の分類手法と,特許を分類する機械学習モデルを学習する方法を提案する。
これを実現するために、我々は、教師付き学習環境で分類モデルを学ぶのに使用できるラベル付きトレーニングデータセットを作成するために、ラベルを特許に自動的に割り当てる戦略を考え出した。
論文 参考訳(メタデータ) (2023-02-22T19:06:58Z) - Black-box Dataset Ownership Verification via Backdoor Watermarking [67.69308278379957]
我々は、リリースデータセットの保護を、(目立たしい)サードパーティモデルのトレーニングに採用されているかどうかの検証として定式化する。
バックドアの透かしを通じて外部パターンを埋め込んでオーナシップの検証を行い,保護することを提案する。
具体的には、有毒なバックドア攻撃(例えばBadNets)をデータセットのウォーターマーキングに利用し、データセット検証のための仮説テストガイダンスメソッドを設計する。
論文 参考訳(メタデータ) (2022-08-04T05:32:20Z) - MOVE: Effective and Harmless Ownership Verification via Embedded
External Features [109.19238806106426]
本稿では,異なる種類のモデル盗難を同時に防ぐために,効果的かつ無害なモデル所有者認証(MOVE)を提案する。
我々は、疑わしいモデルがディフェンダー特定外部特徴の知識を含むかどうかを検証し、所有権検証を行う。
特に、包括的モデル保護を提供するために、ホワイトボックスとブラックボックスの両方の設定でMOVE法を開発した。
論文 参考訳(メタデータ) (2022-08-04T02:22:29Z) - A Practical Tutorial on Explainable AI Techniques [5.671062637797752]
このチュートリアルは、コンピュータサイエンスのバックグラウンドを持つすべての読者にとって、手書きの教科書となることを意図している。
機械学習モデルの直感的な洞察を得ることを目標としている。
論文 参考訳(メタデータ) (2021-11-13T17:47:31Z) - Yes We Care! -- Certification for Machine Learning Methods through the
Care Label Framework [5.189820825770516]
本稿では,ケアラベルによる学習方法の認定を行う統一フレームワークを提案する。
ケアラベルは簡単に理解でき、繊維ラベルや電子機器の不動産カードといった有名な証明書からインスピレーションを得ている。
論文 参考訳(メタデータ) (2021-05-21T08:15:21Z) - ALT-MAS: A Data-Efficient Framework for Active Testing of Machine
Learning Algorithms [58.684954492439424]
少量のラベル付きテストデータのみを用いて機械学習モデルを効率的にテストする新しいフレームワークを提案する。
ベイズニューラルネットワーク(bnn)を用いたモデルアンダーテストの関心指標の推定が目的である。
論文 参考訳(メタデータ) (2021-04-11T12:14:04Z) - Don't Forget to Sign the Gradients! [60.98885980669777]
GradSignsはディープニューラルネットワーク(DNN)のための新しい透かしフレームワーク
深部ニューラルネットワーク(DNN)のための新しい透かしフレームワークであるGradSignsを紹介します。
論文 参考訳(メタデータ) (2021-03-05T14:24:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。