論文の概要: Minimizing Human Intervention in Online Classification
- arxiv url: http://arxiv.org/abs/2510.23557v1
- Date: Mon, 27 Oct 2025 17:31:24 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-28 19:54:32.627941
- Title: Minimizing Human Intervention in Online Classification
- Title(参考訳): オンライン分類におけるヒューマン・インターベンションの最小化
- Authors: William Réveillard, Vasileios Saketos, Alexandre Proutiere, Richard Combes,
- Abstract要約: 質問応答システムにおけるオンライン問題を紹介し,研究する。
この問題では、エージェントは、i.i.d.で描画された$d$次元の埋め込みを表すユーザ送信クエリをシーケンシャルに分類しなければならない。
目標は、フリーのエキスパートアクセスを持つオラクルに対する後悔を最小限に抑えることだ。
サブシアン混合からクエリが引き出されると、$T le ed$ に対して Center-basedgau (CC) は、$NlogN$ に比例して後悔を達成する。
- 参考スコア(独自算出の注目度): 45.127516760754425
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We introduce and study an online problem arising in question answering systems. In this problem, an agent must sequentially classify user-submitted queries represented by $d$-dimensional embeddings drawn i.i.d. from an unknown distribution. The agent may consult a costly human expert for the correct label, or guess on her own without receiving feedback. The goal is to minimize regret against an oracle with free expert access. When the time horizon $T$ is at least exponential in the embedding dimension $d$, one can learn the geometry of the class regions: in this regime, we propose the Conservative Hull-based Classifier (CHC), which maintains convex hulls of expert-labeled queries and calls the expert as soon as a query lands outside all known hulls. CHC attains $\mathcal{O}(\log^d T)$ regret in $T$ and is minimax optimal for $d=1$. Otherwise, the geometry cannot be reliably learned without additional distributional assumptions. We show that when the queries are drawn from a subgaussian mixture, for $T \le e^d$, a Center-based Classifier (CC) achieves regret proportional to $N\log{N}$ where $N$ is the number of labels. To bridge these regimes, we introduce the Generalized Hull-based Classifier (GHC), a practical extension of CHC that allows for more aggressive guessing via a tunable threshold parameter. Our approach is validated with experiments, notably on real-world question-answering datasets using embeddings derived from state-of-the-art large language models.
- Abstract(参考訳): 質問応答システムで発生するオンライン問題を紹介し,研究する。
この問題では、エージェントは未知の分布から引き出された$d$次元の埋め込みで表されるユーザ送信クエリをシーケンシャルに分類する必要がある。
エージェントは、正しいラベルのために費用のかかる人間専門家に相談したり、フィードバックを受けずに自分で推測したりすることができる。
目標は、フリーのエキスパートアクセスを持つオラクルに対する後悔を最小限に抑えることだ。
時間的地平線$T$が少なくとも埋め込み次元$d$で指数関数的である場合、クラス領域の幾何学を学習することができる。この体制では、専門家ラベル付きクエリの凸殻を維持する保守的ハルベース分類器(CHC)を提案し、既知のすべての船体の外にクエリが到着すると、専門家を呼び出します。
CHCは$\mathcal{O}(\log^d T)$ regret in $T$を達成し、$d=1$の最小値である。
さもなければ、幾何学は追加の分布仮定なしで確実に学べることはできない。
サブガウス混合からクエリが引き出されると、$T \le e^d$ に対して、Center-based Classifier (CC) は、$N\log{N}$ に比例して後悔を達成する。
これらはCHCの実践的な拡張であり、調整可能なしきい値パラメータによるより攻撃的な推測を可能にする。
我々のアプローチは実験によって検証され、特に最先端の大規模言語モデルから派生した埋め込みを用いた実世界の質問応答データセットで検証される。
関連論文リスト
- Agnostic Smoothed Online Learning without Knowledge of the Base Measure [5.167069404528051]
本稿では,$mu$の事前知識を必要とせずに,オンライン学習を円滑に行うためのサブ線形後悔を保証するアルゴリズムを提案する。
R-Coverは、次元$d$を持つ関数クラスに対して、適応的後悔$tilde O(sqrtdT/sigma)$を持つ。
論文 参考訳(メタデータ) (2024-10-07T15:25:21Z) - Inverse Entropic Optimal Transport Solves Semi-supervised Learning via Data Likelihood Maximization [65.8915778873691]
条件分布は機械学習の中心的な問題です
ペアデータとペアデータの両方を統合する新しいパラダイムを提案する。
提案手法は任意の誤差で理論上真の条件分布を復元可能であることを示す。
論文 参考訳(メタデータ) (2024-10-03T16:12:59Z) - Optimal level set estimation for non-parametric tournament and crowdsourcing problems [49.75262185577198]
クラウドソーシングによって動機づけられた我々は、$d$の質問に対する$n$の専門家の回答の正しさを部分的に観察する問題を考える。
本稿では、専門家$i$が疑問に答える確率を含む行列$M$が、行と列の置換までの双等方性であることを仮定する。
我々は,この分類問題に対して最小限のアルゴリズムを最適に構築する。
論文 参考訳(メタデータ) (2024-08-27T18:28:31Z) - A Theory of Interpretable Approximations [61.90216959710842]
我々は、ある基底クラス $mathcalH$ の概念の小さな集合によってターゲット概念 $c$ を近似するという考え方を研究する。
任意の$mathcalH$と$c$のペアに対して、これらのケースのちょうど1つが成り立つ: (i) $c$を任意の精度で$mathcalH$で近似することはできない。
解釈可能な近似の場合、近似の複雑さに関するわずかに非自明なa-priori保証でさえ、定数(分布自由かつ精度)の近似を意味することを示す。
論文 参考訳(メタデータ) (2024-06-15T06:43:45Z) - Neural network learns low-dimensional polynomials with SGD near the information-theoretic limit [75.4661041626338]
単一インデックス対象関数 $f_*(boldsymbolx) = textstylesigma_*left(langleboldsymbolx,boldsymbolthetarangleright)$ の勾配勾配勾配学習問題について検討する。
SGDに基づくアルゴリズムにより最適化された2層ニューラルネットワークは、情報指数に支配されない複雑さで$f_*$を学習する。
論文 参考訳(メタデータ) (2024-06-03T17:56:58Z) - A Few Expert Queries Suffices for Sample-Efficient RL with Resets and
Linear Value Approximation [16.29514743112387]
最適値関数のみを線形化可能な設定において、サンプル効率のよい強化学習(RL)について検討する。
専門的なクエリと探索をブレンドするための統計的・計算学的に効率的なアルゴリズム(Delphi)を提案する。
Delphi には $tildemathcalO(d)$ エキスパートクエリと $texttpoly(d,|mathcalA|,1/varepsilon)$ 探索サンプルの量が必要です。
論文 参考訳(メタデータ) (2022-07-18T01:39:13Z) - Beyond Bandit Feedback in Online Multiclass Classification [17.07011090727996]
学習者のフィードバックが任意の有向グラフによって決定されるような環境で,オンライン多クラス分類の問題について検討する。
任意のフィードバックグラフで動作する,初のオンラインマルチクラスアルゴリズムであるGappletronを紹介する。
論文 参考訳(メタデータ) (2021-06-07T13:22:30Z) - Agnostic Learning of a Single Neuron with Gradient Descent [92.7662890047311]
期待される正方形損失から、最も適合した単一ニューロンを学習することの問題点を考察する。
ReLUアクティベーションでは、我々の人口リスク保証は$O(mathsfOPT1/2)+epsilon$である。
ReLUアクティベーションでは、我々の人口リスク保証は$O(mathsfOPT1/2)+epsilon$である。
論文 参考訳(メタデータ) (2020-05-29T07:20:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。