論文の概要: The Clever Hans Effect in Unsupervised Learning
- arxiv url: http://arxiv.org/abs/2408.08041v1
- Date: Thu, 15 Aug 2024 09:19:42 GMT
- ステータス: 処理完了
- システム内更新日: 2024-08-16 14:26:13.343113
- Title: The Clever Hans Effect in Unsupervised Learning
- Title(参考訳): 教師なし学習におけるクレバーハンズの効果
- Authors: Jacob Kauffmann, Jonas Dippel, Lukas Ruff, Wojciech Samek, Klaus-Robert Müller, Grégoire Montavon,
- Abstract要約: Clever Hans効果が教師なし学習で広く利用されていることを示すのはこれが初めてである。
我々の研究は、教師なし学習の実践的応用に関連する未調査のリスクに光を当てている。
- 参考スコア(独自算出の注目度): 24.107672144631326
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Unsupervised learning has become an essential building block of AI systems. The representations it produces, e.g. in foundation models, are critical to a wide variety of downstream applications. It is therefore important to carefully examine unsupervised models to ensure not only that they produce accurate predictions, but also that these predictions are not "right for the wrong reasons", the so-called Clever Hans (CH) effect. Using specially developed Explainable AI techniques, we show for the first time that CH effects are widespread in unsupervised learning. Our empirical findings are enriched by theoretical insights, which interestingly point to inductive biases in the unsupervised learning machine as a primary source of CH effects. Overall, our work sheds light on unexplored risks associated with practical applications of unsupervised learning and suggests ways to make unsupervised learning more robust.
- Abstract(参考訳): 教師なし学習は、AIシステムの不可欠な構成要素となっている。
ファンデーションモデルなど、同社が生成する表現は、さまざまなダウンストリームアプリケーションに不可欠である。
したがって、教師なしモデルを調べて正確な予測を行うだけでなく、これらの予測が「間違った理由のために正しい」のではなく、いわゆる「クレバーハンズ(CH)」効果であることを示すことが重要である。
特別に開発された説明可能なAI技術を用いて、教師なし学習においてCH効果が広まることを示す。
これは、教師なし学習機械における誘導バイアスをCH効果の主源として示している。
全体として、我々の研究は、教師なし学習の実践的応用に関連する探索されていないリスクに光を当て、教師なし学習をより堅牢にする方法を提案する。
関連論文リスト
- Uncertainties of Latent Representations in Computer Vision [2.33877878310217]
この論文は、事前訓練されたコンピュータビジョンモデルの潜在表現ベクトルにそれらを追加することで、不確実性推定を容易にアクセスできるようにする。
観測不可能な潜在表現に関するこれらの観測不可能な不確実性は、確実に正しいことを示す。
論文 参考訳(メタデータ) (2024-08-26T14:02:30Z) - Gaining Wisdom from Setbacks: Aligning Large Language Models via Mistake
Analysis [127.85293480405082]
大規模言語モデル(LLM)の急速な開発は、多くの機会を提供するだけでなく、重要な課題も提示している。
既存のアライメント手法は、人間による注釈付き、欠陥のない命令応答ペアを利用することで、LLMを好ましい結果に導くのが一般的である。
本研究は誤り解析に基づく新しいアライメント手法を提案する。ミスの原因と回避方法を学習するために,LLMを誤った内容に故意に公開する手法である。
論文 参考訳(メタデータ) (2023-10-16T14:59:10Z) - Learning for Counterfactual Fairness from Observational Data [62.43249746968616]
公正な機械学習は、人種、性別、年齢などの特定の保護された(感受性のある)属性によって記述されるある種のサブグループに対して、学習モデルのバイアスを取り除くことを目的としている。
カウンターファクトフェアネスを達成するための既存の手法の前提条件は、データに対する因果モデルの事前の人間の知識である。
本研究では,新しいフレームワークCLAIREを提案することにより,因果関係を付与せずに観測データから対実的に公正な予測を行う問題に対処する。
論文 参考訳(メタデータ) (2023-07-17T04:08:29Z) - Adversarial Robustness in Unsupervised Machine Learning: A Systematic
Review [0.0]
本稿では,教師なし学習の堅牢性に関する体系的な文献レビューを行う。
この結果に基づいて,教師なし学習に対する攻撃特性のモデルを構築した。
論文 参考訳(メタデータ) (2023-06-01T13:59:32Z) - Weakly-supervised HOI Detection via Prior-guided Bi-level Representation
Learning [66.00600682711995]
ヒューマンオブジェクトインタラクション(HOI)検出は、人間中心のシーン理解において重要な役割を担い、多くの視覚タスクの基本的なビルディングブロックとして機能する。
HOI検出のための汎用的でスケーラブルな戦略の1つは、画像レベルのアノテーションからのみ学習する弱い監視を使用することである。
これは、不明瞭な人間と物体の関連、HOIを検出する大きな探索空間、非常にノイズの多い訓練信号によって本質的に困難である。
画像レベルとHOIインスタンスレベルの両方で事前の知識を組み込むことができるCLIP誘導HOI表現を開発し、不正な人間とオブジェクトの関連性を実証するために自己学習機構を採用する。
論文 参考訳(メタデータ) (2023-03-02T14:41:31Z) - Improving Self-supervised Learning with Automated Unsupervised Outlier
Arbitration [83.29856873525674]
本稿では,自己教師型学習のためのビューサンプリング問題を対象とした,軽量潜在変数モデル UOTA を提案する。
本手法は,多くの主流な自己指導型学習手法に直接応用する。
論文 参考訳(メタデータ) (2021-12-15T14:05:23Z) - Pulling Up by the Causal Bootstraps: Causal Data Augmentation for
Pre-training Debiasing [14.4304416146106]
我々は、因果ブートストレッピングと呼ばれる因果訓練前脱バイアス技術の研究と拡張を行った。
このような因果前訓練技術が,既存のベースプラクティスを大幅に上回ることを示す。
論文 参考訳(メタデータ) (2021-08-27T21:42:04Z) - Contrastive Learning Inverts the Data Generating Process [36.30995987986073]
一般に使用されるインフォアンスファミリーに属する目標で訓練されたフィードフォワードモデルは、観測データの基底となる生成モデルを暗黙的に反転させることを学習する。
本理論は, コントラスト学習, 生成モデル, 非線形独立成分分析の基本的な関係を明らかにする。
論文 参考訳(メタデータ) (2021-02-17T16:21:54Z) - A Sober Look at the Unsupervised Learning of Disentangled
Representations and their Evaluation [63.042651834453544]
モデルとデータの両方に帰納的バイアスを伴わずに,非教師なしの非教師付き表現学習は不可能であることを示す。
異なる手法は、対応する損失によって「強化」された特性を効果的に強制するが、よく見分けられたモデルは監督なしでは特定できないように見える。
以上の結果から,遠絡学習における今後の研究は,帰納的バイアスと(単純に)監督の役割を明確化すべきであることが示唆された。
論文 参考訳(メタデータ) (2020-10-27T10:17:15Z) - The Clever Hans Effect in Anomaly Detection [3.278983768346415]
クリーバーハンズ効果は、学習したモデルが「間違った」特徴に基づいて正しい予測を生成するときに起こる。
本稿では、一般的な異常検出モデルで使用される関連する特徴を強調できる、説明可能なAI(XAI)手順を提案する。
論文 参考訳(メタデータ) (2020-06-18T15:27:05Z) - Explainable Active Learning (XAL): An Empirical Study of How Local
Explanations Impact Annotator Experience [76.9910678786031]
本稿では、最近急増している説明可能なAI(XAI)のテクニックをアクティブラーニング環境に導入することにより、説明可能なアクティブラーニング(XAL)の新たなパラダイムを提案する。
本研究は,機械教育のインタフェースとしてのAI説明の利点として,信頼度校正を支援し,リッチな形式の教示フィードバックを可能にすること,モデル判断と認知作業負荷による潜在的な欠点を克服する効果を示す。
論文 参考訳(メタデータ) (2020-01-24T22:52:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。