論文の概要: A Survey of Controllable Learning: Methods and Applications in Information Retrieval
- arxiv url: http://arxiv.org/abs/2407.06083v1
- Date: Thu, 4 Jul 2024 09:50:50 GMT
- ステータス: 処理完了
- システム内更新日: 2024-07-09 14:51:28.507014
- Title: A Survey of Controllable Learning: Methods and Applications in Information Retrieval
- Title(参考訳): 制御可能な学習に関する調査:情報検索における方法と応用
- Authors: Chenglei Shen, Xiao Zhang, Teng Shi, Changshuo Zhang, Guofu Xie, Jun Xu,
- Abstract要約: 制御可能な学習(CL)は、信頼できる機械学習において重要な要素として現れる。
我々はCLの形式的定義を提供し、情報検索におけるその応用について議論する。
学習、評価、タスク設定、オンライン環境への展開など、CLが直面している課題を特定します。
- 参考スコア(独自算出の注目度): 5.641298338700653
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Controllable learning (CL) emerges as a critical component in trustworthy machine learning, ensuring that learners meet predefined targets and can adaptively adjust without retraining according to the changes in those targets. We provide a formal definition of CL, and discuss its applications in information retrieval (IR) where information needs are often complex and dynamic. The survey categorizes CL according to who controls (users or platforms), what is controllable (e.g., retrieval objectives, users' historical behaviors, controllable environmental adaptation), how control is implemented (e.g., rule-based method, Pareto optimization, Hypernetwork), and where to implement control (e.g.,pre-processing, in-processing, post-processing methods). Then, we identify challenges faced by CL across training, evaluation, task setting, and deployment in online environments. Additionally, we outline promising directions for CL in theoretical analysis, efficient computation, empowering large language models, application scenarios and evaluation frameworks in IR.
- Abstract(参考訳): 制御可能な学習(CL)は、信頼できる機械学習において重要な要素として現れ、学習者が予め定義された目標を満たすことを保証する。
我々はCLの形式的定義を提供し、情報要求が複雑で動的である情報検索(IR)におけるその応用について論じる。
CLは、制御可能なもの(ユーザまたはプラットフォーム)、制御可能なもの(例えば、検索対象物、ユーザの過去の行動、制御可能な環境適応)、制御の実装方法(例えば、ルールベースの方法、Pareto最適化、Hypernetwork)、制御を実装する場所(例えば、前処理、内処理、後処理メソッド)によって分類される。
そして、学習、評価、タスク設定、オンライン環境への展開など、CLが直面している課題を特定します。
さらに、理論解析、効率的な計算、大規模言語モデル、アプリケーションシナリオ、IRにおける評価フレームワークの強化におけるCLの有望な方向性について概説する。
関連論文リスト
- How In-Context Learning Emerges from Training on Unstructured Data: On the Role of Co-Occurrence, Positional Information, and Noise Structures [19.841163050181194]
トランスフォーマーのような大きな言語モデル(LLM)は、インコンテキスト学習(ICL)機能を備えている。
構造化されていないデータに対する教師なしトレーニングからICLがどのように現れるかを検討する。
我々は、ICLを未知のデータに一般化するための位置情報とノイズ構造の必要性を確立する。
論文 参考訳(メタデータ) (2024-05-31T18:46:06Z) - Realistic Continual Learning Approach using Pre-trained Models [1.2582887633807602]
本稿では,タスク間のクラス分布がランダムな新しいCLパラダイムであるRealistic Continual Learning(RealCL)を紹介する。
CLARE(Continual Learning Approach with pRE-trained model for RealCL scenarios)も提案する。
論文 参考訳(メタデータ) (2024-04-11T13:19:46Z) - Curriculum Learning for Compositional Visual Reasoning [0.0]
本稿では,GQAデータセット上での学習を温めるために,クロスモーダルな埋め込みに依存するNMN法を提案する。
CL法を適切に選択することにより,トレーニングコストとトレーニングデータの量を大幅に削減できることを示す。
論文 参考訳(メタデータ) (2023-03-27T08:47:18Z) - From MNIST to ImageNet and Back: Benchmarking Continual Curriculum
Learning [9.104068727716294]
継続学習(CL)は、機械学習研究で最も有望なトレンドの1つである。
6つの画像データセットから複数の異種タスクを含む2つの新しいCLベンチマークを導入する。
さらに、タスクが複雑化と減少の順序で表されるように、ベンチマークを構造化します。
論文 参考訳(メタデータ) (2023-03-16T18:11:19Z) - Real-Time Evaluation in Online Continual Learning: A New Hope [104.53052316526546]
計算コストに関して,現在の継続学習(CL)手法を評価した。
簡単なベースラインは、この評価の下で最先端のCL法より優れている。
これは、既存のCL文献の大部分は、実用的でない特定の種類のストリームに適合していることを驚くほど示唆している。
論文 参考訳(メタデータ) (2023-02-02T12:21:10Z) - Curriculum Learning for Safe Mapless Navigation [71.55718344087657]
本研究は,カリキュラム学習(CL)に基づくアプローチがエージェントのパフォーマンスに与える影響について検討する。
特に、ロボットマップレスナビゲーションの安全性に焦点をあて、標準的なエンドツーエンド(E2E)トレーニング戦略と比較する。
論文 参考訳(メタデータ) (2021-12-23T12:30:36Z) - Learning Multi-Objective Curricula for Deep Reinforcement Learning [55.27879754113767]
深部強化学習(DRL)のサンプル効率と最終性能を向上させるために,各種自動カリキュラム学習(ACL)手法が提案されている。
本稿では,多目的だがコヒーレントなカリキュラムを作成するための統合された自動カリキュラム学習フレームワークを提案する。
既存の手設計のカリキュラムパラダイムに加えて,抽象カリキュラムを学習するためのフレキシブルなメモリ機構を設計する。
論文 参考訳(メタデータ) (2021-10-06T19:30:25Z) - A Survey on Curriculum Learning [48.36129047271622]
Curriculum Learning(CL)は、より簡単なデータからより難しいデータまで、マシンラーニングモデルをトレーニングするトレーニング戦略である。
CL戦略は、使い易いプラグインとして、様々なモデルの一般化能力と収束率を改善する能力を示した。
論文 参考訳(メタデータ) (2020-10-25T17:15:04Z) - Curriculum Learning for Reinforcement Learning Domains: A Framework and
Survey [53.73359052511171]
強化学習(Reinforcement Learning, RL)は、エージェントが限られた環境フィードバックしか持たないシーケンシャルな意思決定タスクに対処するための一般的なパラダイムである。
本稿では、RLにおけるカリキュラム学習(CL)の枠組みを提案し、既存のCLメソッドを仮定、能力、目標の観点から調査・分類する。
論文 参考訳(メタデータ) (2020-03-10T20:41:24Z) - Hierarchical Variational Imitation Learning of Control Programs [131.7671843857375]
パラメータ化された階層的手順(PHP)で表される制御ポリシーの模倣学習のための変分推論手法を提案する。
本手法は, 教師による実演の観察・行動トレースのデータセットにおける階層構造を, 手続き呼び出しや用語の待ち行列に近似した後続分布を学習することによって発見する。
階層的模倣学習(hierarchical mimicion learning)の文脈における変分推論の新たな利点を実証する。
論文 参考訳(メタデータ) (2019-12-29T08:57:02Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。