論文の概要: Pool-based Active Learning as Noisy Lossy Compression: Characterizing Label Complexity via Finite Blocklength Analysis
- arxiv url: http://arxiv.org/abs/2602.05333v1
- Date: Thu, 05 Feb 2026 05:57:54 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-06 18:49:08.776737
- Title: Pool-based Active Learning as Noisy Lossy Compression: Characterizing Label Complexity via Finite Blocklength Analysis
- Title(参考訳): ノイズ損失圧縮としてのプール型アクティブラーニング:有限ブロック長解析によるラベル複雑度の特徴付け
- Authors: Kosuke Sugiyama, Masato Uchida,
- Abstract要約: 本稿では、プールベースアクティブラーニング(AL)の理論的限界を分析するための情報理論フレームワークを提案する。
提案フレームワークは,プール観測をノイズシンボル観測にマッピングし,データ選択を圧縮に,復号化を学習することで,プールベースALをノイズの少ない圧縮問題として再構成する。
- 参考スコア(独自算出の注目度): 0.08594140167290097
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This paper proposes an information-theoretic framework for analyzing the theoretical limits of pool-based active learning (AL), in which a subset of instances is selectively labeled. The proposed framework reformulates pool-based AL as a noisy lossy compression problem by mapping pool observations to noisy symbol observations, data selection to compression, and learning to decoding. This correspondence enables a unified information-theoretic analysis of data selection and learning in pool-based AL. Applying finite blocklength analysis of noisy lossy compression, we derive information-theoretic lower bounds on label complexity and generalization error that serve as theoretical limits for a given learning algorithm under its associated optimal data selection strategy. Specifically, our bounds include terms that reflect overfitting induced by the learning algorithm and the discrepancy between its inductive bias and the target task, and are closely related to established information-theoretic bounds and stability theory, which have not been previously applied to the analysis of pool-based AL. These properties yield a new theoretical perspective on pool-based AL.
- Abstract(参考訳): 本稿では,プールベースアクティブラーニング(AL)の理論的限界を分析するための情報理論フレームワークを提案する。
提案フレームワークは,プール観測をノイズシンボル観測にマッピングし,データ選択を圧縮に,復号化を学習することで,プールベースALをノイズの少ない圧縮問題として再構成する。
この対応により、プールベースALにおけるデータ選択と学習の統一情報理論解析が可能となる。
雑音分散圧縮の有限ブロック長解析を応用し, 学習アルゴリズムの理論的限界となるラベル複雑性と一般化誤差に関する情報理論の下限を導出する。
具体的には,学習アルゴリズムが引き起こす過度適合と,その帰納的バイアスと目標タスクの相違を反映し,プールベースALの分析にこれまで適用されていなかった情報理論境界と安定性理論に密接に関連している。
これらの性質は、プールベースのALに関する新しい理論的視点をもたらす。
関連論文リスト
- Supervised Learning as Lossy Compression: Characterizing Generalization and Sample Complexity via Finite Blocklength Analysis [0.08594140167290097]
本稿では,機械学習における一般化に関する情報理論の新たな視点について述べる。
固定ランダム化学習アルゴリズムにおけるサンプルの複雑さと一般化誤差の低い境界を導出する。
情報理論境界理論と安定性理論で見いだされる既存の指標と理論上の関係を示すために、過度に適合する項を分解する。
論文 参考訳(メタデータ) (2026-02-04T00:45:01Z) - Unlocking Symbol-Level Precoding Efficiency Through Tensor Equivariant Neural Network [84.22115118596741]
シンボルレベルのプリコーディングにおいて,推論の複雑さの低いエンドツーエンドディープラーニング(DL)フレームワークを提案する。
提案手法は,従来の手法よりも約80倍の高速化を実現しつつ,SLPの大幅な性能向上を達成できることを示す。
論文 参考訳(メタデータ) (2025-10-02T15:15:50Z) - Hallucination Detection in LLMs with Topological Divergence on Attention Graphs [60.83579255387347]
幻覚(Halucination)、すなわち、事実的に誤ったコンテンツを生成することは、大きな言語モデルにとって重要な課題である。
本稿では,TOHA (Topology-based HAllucination detector) をRAG設定に導入する。
論文 参考訳(メタデータ) (2025-04-14T10:06:27Z) - Consistent spectral clustering in sparse tensor block models [0.0]
高階クラスタリングは、様々な分野で広く使われているマルチウェイデータセットでオブジェクトを分類することを目的としている。
本稿では,整数値の少ないデータテンソルに特化して設計されたテンソルブロックモデルを提案する。
ノイズ変動を緩和するためのトリミングステップを付加した単純なスペクトルクラスタリングアルゴリズムを提案する。
論文 参考訳(メタデータ) (2025-01-23T16:41:19Z) - Generalization Bounds of Surrogate Policies for Combinatorial Optimization Problems [53.03951222945921]
我々はスムーズな(摂動された)ポリシーを解析し、線形オラクルが使用する方向に対して制御されたランダムな摂動を付加する。
我々の主な貢献は、過剰リスクを摂動バイアス、統計的推定誤差、最適化誤差に分解する一般化境界である。
車両のスケジューリングやスムーズ化がトラクタブルトレーニングと制御された一般化の両方を可能にしていることを示す。
論文 参考訳(メタデータ) (2024-07-24T12:00:30Z) - Rethinking Clustered Federated Learning in NOMA Enhanced Wireless
Networks [60.09912912343705]
本研究では,新しいクラスタ化フェデレーション学習(CFL)アプローチと,非独立かつ同一に分散した(非IID)データセットを統合することのメリットについて検討する。
データ分布における非IIDの度合いを測定する一般化ギャップの詳細な理論的解析について述べる。
非IID条件によって引き起こされる課題に対処する解決策は、特性の分析によって提案される。
論文 参考訳(メタデータ) (2024-03-05T17:49:09Z) - DeepGAR: Deep Graph Learning for Analogical Reasoning [31.679051203515655]
アナロジカル推論(アナロジカル推論、Analogical reasoning)は、対象物から対象物への対応関係を発見し、マッピングする過程である。
SMT(Structure-Mapping Theory)は、ターゲットとベースの両方をグラフに抽象化し、アナログ推論の認知過程を形成する。
本稿では,認知理論に基づく制約を仮定することにより,ソースドメインとターゲットドメインの対応を識別する,分析推論(DeepGAR)のための新しいフレームワークを提案する。
論文 参考訳(メタデータ) (2022-11-19T23:12:58Z) - Semi-Blind Source Separation with Learned Constraints [1.2891210250935146]
ブラインドソース分離 (BSS) アルゴリズムは、ハイパースペクトルデータ解析のための教師なしの手法である。
本稿では,予測された最小二乗アルゴリズムと学習に基づく正規化スキームを組み合わせた半教師付きソース分離手法について検討する。
これにより、物理的に解釈可能な解を提供する精度が向上し、革新的なBSSアルゴリズムが実現できることが示される。
論文 参考訳(メタデータ) (2022-09-27T17:58:23Z) - Deep Equilibrium Assisted Block Sparse Coding of Inter-dependent
Signals: Application to Hyperspectral Imaging [71.57324258813675]
相互依存信号のデータセットは、列が強い依存を示す行列として定義される。
ニューラルネットワークは、事前に構造として機能し、基礎となる信号相互依存性を明らかにするために使用される。
ディープ・アンローリングとディープ・平衡に基づくアルゴリズムが開発され、高度に解釈可能で簡潔なディープ・ラーニング・ベース・アーキテクチャを形成する。
論文 参考訳(メタデータ) (2022-03-29T21:00:39Z) - Progressive Identification of True Labels for Partial-Label Learning [112.94467491335611]
部分ラベル学習(Partial-label Learning, PLL)は、典型的な弱教師付き学習問題であり、各トレーニングインスタンスには、真のラベルである候補ラベルのセットが設けられている。
既存のほとんどの手法は、特定の方法で解決しなければならない制約付き最適化として精巧に設計されており、計算複雑性をビッグデータにスケールアップするボトルネックにしている。
本稿では,モデルと最適化アルゴリズムの柔軟性を備えた分類器の新しいフレームワークを提案する。
論文 参考訳(メタデータ) (2020-02-19T08:35:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。