論文の概要: Active Learning with Simple Questions
- arxiv url: http://arxiv.org/abs/2405.07937v1
- Date: Mon, 13 May 2024 17:13:32 GMT
- ステータス: 処理完了
- システム内更新日: 2024-05-14 12:36:52.004747
- Title: Active Learning with Simple Questions
- Title(参考訳): 簡単な質問によるアクティブラーニング
- Authors: Vasilis Kontonis, Mingchen Ma, Christos Tzamos,
- Abstract要約: 我々は、学習者がドメインTサブセットXとターゲットラベルyのサブセットを選択することができるような、より一般的な領域クエリについて研究する。
私たちの主な貢献は、クエリの数と学習者が使用するクエリ言語の複雑さの間のトレードオフを定量化することです。
- 参考スコア(独自算出の注目度): 20.239213248652376
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We consider an active learning setting where a learner is presented with a pool S of n unlabeled examples belonging to a domain X and asks queries to find the underlying labeling that agrees with a target concept h^* \in H. In contrast to traditional active learning that queries a single example for its label, we study more general region queries that allow the learner to pick a subset of the domain T \subset X and a target label y and ask a labeler whether h^*(x) = y for every example in the set T \cap S. Such more powerful queries allow us to bypass the limitations of traditional active learning and use significantly fewer rounds of interactions to learn but can potentially lead to a significantly more complex query language. Our main contribution is quantifying the trade-off between the number of queries and the complexity of the query language used by the learner. We measure the complexity of the region queries via the VC dimension of the family of regions. We show that given any hypothesis class H with VC dimension d, one can design a region query family Q with VC dimension O(d) such that for every set of n examples S \subset X and every h^* \in H, a learner can submit O(d log n) queries from Q to a labeler and perfectly label S. We show a matching lower bound by designing a hypothesis class H with VC dimension d and a dataset S \subset X of size n such that any learning algorithm using any query class with VC dimension O(d) must make poly(n) queries to label S perfectly. Finally, we focus on well-studied hypothesis classes including unions of intervals, high-dimensional boxes, and d-dimensional halfspaces, and obtain stronger results. In particular, we design learning algorithms that (i) are computationally efficient and (ii) work even when the queries are not answered based on the learner's pool of examples S but on some unknown superset L of S
- Abstract(参考訳): 我々は、学習者がドメイン X に属する n 個の未ラベル例のプール S を提示し、対象概念 h^* \in H に一致する基礎的なラベリングを見つけるためにクエリーを尋ねる。 ラベルの単一例を問う従来のアクティブラーニングとは対照的に、学習者がドメイン T \subset X とターゲットラベル y のサブセットを選択できるより一般的な地域クエリーを研究し、学習者が集合 T \cap S のすべての例に対して h^*(x) = y を問う。
私たちの主な貢献は、クエリの数と学習者が使用するクエリ言語の複雑さの間のトレードオフを定量化することです。
本稿では,各領域のVC次元を用いて,領域問合せの複雑さを計測する。
我々は、VC次元 d の任意の仮説クラス H が与えられたとき、VC次元 O(d) を持つ領域クエリファミリー Q を設計でき、任意の n 個の例 S \subset X とすべての h^* \in H に対して、学習者は、Q から O(d log n) のクエリをラベラおよび完全ラベル S に送信することができることを示す。
最後に、間隔の和、高次元ボックス、およびd次元半空間を含むよく研究された仮説クラスに注目し、より強い結果を得る。
特に、我々は学習アルゴリズムを設計する。
i) 計算効率が高く
(ii) 学習者のサンプルSのプールに基づいてクエリが答えられなくても、未知のSのスーパーセットL上で作業する。
関連論文リスト
- Crafting Interpretable Embeddings by Asking LLMs Questions [89.49960984640363]
大規模言語モデル(LLM)は、自然言語処理タスクの増大に対して、テキスト埋め込みを急速に改善した。
質問応答埋め込み (QA-Emb) を導入し, 各特徴がLLMに対して質問された質問に対する回答を表す。
我々はQA-Embを用いて、言語刺激に対するfMRIボクセル応答を予測するための解釈可能なモデルを柔軟に生成する。
論文 参考訳(メタデータ) (2024-05-26T22:30:29Z) - Adaptive-RAG: Learning to Adapt Retrieval-Augmented Large Language Models through Question Complexity [59.57065228857247]
Retrieval-augmented Large Language Models (LLMs) は、質問回答(QA)のようなタスクにおける応答精度を高めるための有望なアプローチとして登場した。
本稿では,クエリの複雑さに基づいて,LLMの最適戦略を動的に選択できる適応型QAフレームワークを提案する。
オープンドメインのQAデータセットを用いて、複数のクエリの複雑さを網羅し、QAシステムの全体的な効率性と精度を高めることを示す。
論文 参考訳(メタデータ) (2024-03-21T13:52:30Z) - Learning to Learn in Interactive Constraint Acquisition [7.741303298648302]
制約獲得(CA:Constraint Acquisition)では、モデルを自動的に学習することでユーザを支援することが目標である。
アクティブCAでは、クエリを対話的にユーザにポストすることでこれを行う。
本稿では、確率論的分類モデルを用いて対話型CAを誘導し、より有望なクエリを生成することを提案する。
論文 参考訳(メタデータ) (2023-12-17T19:12:33Z) - Test-Time Self-Adaptive Small Language Models for Question Answering [63.91013329169796]
ラベルのないテストデータのみを用いて、より小さな自己適応型LMの能力を示し、検討する。
提案した自己適応戦略は,ベンチマークQAデータセットの大幅な性能向上を示す。
論文 参考訳(メタデータ) (2023-10-20T06:49:32Z) - Agnostic Multi-Group Active Learning [24.97598179536084]
能動的学習の観点から,この問題の変種を考察し,学習者がコレクションの各分布からどの例をラベル付けするかを判断する権限を付与する。
我々の主な課題は、不一致に基づくアクティブラーニングのような標準的なアクティブラーニング技術が、マルチグループラーニングの目的に直接適用されないことである。
既存のアルゴリズムを改良し、多群学習の非依存的な定式化のための一貫した能動的学習アルゴリズムを提供する。
論文 参考訳(メタデータ) (2023-06-02T21:24:13Z) - Learning Hidden Markov Models Using Conditional Samples [72.20944611510198]
本稿では,隠れマルコフモデル(HMM)の学習における計算複雑性について述べる。
本稿では,HMMの条件分布からサンプルを問合せする対話型アクセスモデルを提案する。
具体的には、正確な条件付き確率に対するクエリアクセスが可能な設定において、HMMを学習するための効率的なアルゴリズムを得る。
論文 参考訳(メタデータ) (2023-02-28T16:53:41Z) - UniKGQA: Unified Retrieval and Reasoning for Solving Multi-hop Question
Answering Over Knowledge Graph [89.98762327725112]
KGQA(Multi-hop Question Answering over Knowledge Graph)は、自然言語の質問で言及されているトピックエンティティから、複数のホップを持つ回答エンティティを見つけることを目的としている。
我々は、モデルアーキテクチャとパラメータ学習の両方において、検索と推論を統合することで、マルチホップKGQAタスクの新しいアプローチであるUniKGQAを提案する。
論文 参考訳(メタデータ) (2022-12-02T04:08:09Z) - Knowledge Base Question Answering by Case-based Reasoning over Subgraphs [81.22050011503933]
本モデルでは,既存のKG補完アルゴリズムよりも複雑な推論パターンを必要とする問合せに対して,より効果的に答えることを示す。
提案モデルは、KBQAベンチマークの最先端モデルよりも優れているか、競合的に動作する。
論文 参考訳(メタデータ) (2022-02-22T01:34:35Z) - Partial Queries for Constraint Acquisition [40.280429279882]
ユーザに対して部分的なクエリを問うことによって,制約ネットワークを学習する。
すなわち、変数のサブセットへの代入を正あるいは負のものとして分類するようユーザに求めます。
我々は、負の例を与えられた場合、サンプルのサイズで対数的な多数のクエリにおいて、対象ネットワークの制約に焦点をあてる QUACQ と呼ばれるアルゴリズムを提供する。
論文 参考訳(メタデータ) (2020-03-14T14:43:45Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。