論文の概要: Unified Risk Analysis for Weakly Supervised Learning
- arxiv url: http://arxiv.org/abs/2309.08216v1
- Date: Fri, 15 Sep 2023 07:30:15 GMT
- ステータス: 処理完了
- システム内更新日: 2023-09-18 15:33:51.634733
- Title: Unified Risk Analysis for Weakly Supervised Learning
- Title(参考訳): 弱教師付き学習における統一リスク分析
- Authors: Chao-Kai Chiang, Masashi Sugiyama
- Abstract要約: 弱教師付き学習のための包括的理解と統一的方法論を提供する枠組みを導入する。
フレームワークの定式化コンポーネントは、汚染の観点から、どのように弱い監督が形成されるかの統一的な解釈を提供する。
フレームワークの分析コンポーネントは、汚染除去プロセスと見なされ、リスクの書き直しを行う体系的な方法を提供する。
- 参考スコア(独自算出の注目度): 65.75775694815172
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Among the flourishing research of weakly supervised learning (WSL), we
recognize the lack of a unified interpretation of the mechanism behind the
weakly supervised scenarios, let alone a systematic treatment of the risk
rewrite problem, a crucial step in the empirical risk minimization approach. In
this paper, we introduce a framework providing a comprehensive understanding
and a unified methodology for WSL. The formulation component of the framework,
leveraging a contamination perspective, provides a unified interpretation of
how weak supervision is formed and subsumes fifteen existing WSL settings. The
induced reduction graphs offer comprehensive connections over WSLs. The
analysis component of the framework, viewed as a decontamination process,
provides a systematic method of conducting risk rewrite. In addition to the
conventional inverse matrix approach, we devise a novel strategy called
marginal chain aiming to decontaminate distributions. We justify the
feasibility of the proposed framework by recovering existing rewrites reported
in the literature.
- Abstract(参考訳): 弱い教師付き学習(wsl)の隆盛する研究の中で,我々は,経験的リスク最小化アプローチにおける重要なステップであるリスク書き換え問題の体系的な処理を言うまでもなく,弱い教師付きシナリオの背後にあるメカニズムの統一的な解釈の欠如を認識している。
本稿では,WSLの包括的理解と統一的方法論を提供するフレームワークを紹介する。
フレームワークの定式化コンポーネントは、汚染の観点から、弱い監視方法の統一的な解釈を提供し、15の既存のWSL設定を仮定する。
誘導還元グラフはWSL上の包括的な接続を提供する。
フレームワークの分析コンポーネントは、汚染除去プロセスと見なされ、リスクの書き直しを行う体系的な方法を提供する。
従来の逆行列法に加えて, 分布の分解を目的とした辺鎖と呼ばれる新しい戦略を考案する。
文献で報告されている既存の書き直しを復元することにより,提案フレームワークの実現可能性の正当化を図る。
関連論文リスト
- Eliciting Critical Reasoning in Retrieval-Augmented Language Models via Contrastive Explanations [4.697267141773321]
Retrieval-augmented Generation (RAG) は、よりリッチな現実的コンテキストに体系的にアクセスする大規模言語モデル(LLM)をサポートするために、現代のNLPにおいて重要なメカニズムとして登場した。
近年の研究では、LLMはRAGに基づくインコンテキスト情報(誤った推論や幻覚につながる可能性のある制限)を批判的に分析するのに苦慮していることが示されている。
本稿では,RAGにおける批判的推論を,対照的な説明を通じてどのように引き起こすかを検討する。
論文 参考訳(メタデータ) (2024-10-30T10:11:53Z) - Hidden in Plain Text: Emergence & Mitigation of Steganographic Collusion in LLMs [0.600808022072121]
他者の不利に対するコラボレーションは、望ましくないエージェント協力の中心的な形態として認識されている。
エージェント通信における情報隠蔽(ステガノグラフィー)の使用は、衝突を事実上検出できないものにする可能性がある。
このことは、ステガノグラフィーの共謀能力を監視・緩和するための評価フレームワークの必要性を浮き彫りにする。
論文 参考訳(メタデータ) (2024-10-02T16:18:33Z) - A Distributional Analogue to the Successor Representation [54.99439648059807]
本稿では,分散強化学習のための新しい手法を提案する。
学習プロセスにおける遷移構造と報酬のクリーンな分離を解明する。
実例として,ゼロショットリスクに敏感な政策評価が可能であることを示す。
論文 参考訳(メタデータ) (2024-02-13T15:35:24Z) - Data Poisoning for In-context Learning [49.77204165250528]
In-context Learning (ICL)は、新しいタスクに適応する革新的な能力として認識されている。
本論文は、ICLのデータ中毒に対する感受性の重大な問題について述べる。
ICLの学習メカニズムを活用するために考案された特殊攻撃フレームワークであるICLPoisonを紹介する。
論文 参考訳(メタデータ) (2024-02-03T14:20:20Z) - Sparsity-Guided Holistic Explanation for LLMs with Interpretable
Inference-Time Intervention [53.896974148579346]
大規模言語モデル(LLM)は、様々な自然言語処理領域において前例のないブレークスルーを達成した。
LLMの謎的なブラックボックスの性質は、透過的で説明可能なアプリケーションを妨げる、解釈可能性にとって重要な課題である。
本稿では,LLMの全体的解釈を提供することを目的として,スポーシティ誘導技術に係わる新しい方法論を提案する。
論文 参考訳(メタデータ) (2023-12-22T19:55:58Z) - An Investigation of Representation and Allocation Harms in Contrastive
Learning [55.42336321517228]
比較学習 (CL) は, 少数集団と少数集団の表現を崩壊させる傾向にあることを示す。
本稿では,この現象を表現障害と呼び,対応するCL手法を用いて画像とテキストのデータセットに示す。
対照的な学習環境において,表現の崩壊につながるニューラルブロックモデルを用いて表現障害の理論的説明を行う。
論文 参考訳(メタデータ) (2023-10-02T19:25:37Z) - It begins with a boundary: A geometric view on probabilistically robust learning [6.877576704011329]
我々はそのような方法の1つの新鮮で幾何学的な見方を取る --確率論的ロバスト学習(PRL)
我々は, 新規緩和法を用いて, オリジナルおよび修正問題の解が存在することを証明した。
また,適切な$Gamma$-convergence解析により,原型および修正型PRLモデルがリスク最小化と対向トレーニングの間を介在する方法を明らかにした。
論文 参考訳(メタデータ) (2023-05-30T06:24:30Z) - Revisiting Deep Semi-supervised Learning: An Empirical Distribution
Alignment Framework and Its Generalization Bound [97.93945601881407]
経験分布アライメントによる半教師あり学習(SLEDA)と呼ばれる深層半教師あり学習フレームワークを提案する。
ラベル付きデータに対するトレーニング誤差を最小化することにより,半教師付き学習の一般化誤差を効果的にバウンドできることを示す。
新しい枠組みと理論的境界に基づいて、Augmented Distribution Alignment Network(ADA-Net)と呼ばれるシンプルで効果的な深層半教師付き学習手法を開発した。
論文 参考訳(メタデータ) (2022-03-13T11:59:52Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。