論文の概要: Analytical Survey of Learning with Low-Resource Data: From Analysis to Investigation
- arxiv url: http://arxiv.org/abs/2510.08962v1
- Date: Fri, 10 Oct 2025 03:15:42 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-14 00:38:48.032123
- Title: Analytical Survey of Learning with Low-Resource Data: From Analysis to Investigation
- Title(参考訳): 低リソースデータを用いた学習の分析:分析から調査まで
- Authors: Xiaofeng Cao, Mingwei Xu, Xin Yu, Jiangchao Yao, Wei Ye, Shengjun Huang, Minling Zhang, Ivor W. Tsang, Yew Soon Ong, James T. Kwok, Heng Tao Shen,
- Abstract要約: 高リソースデータによる学習は人工知能(AI)において大きな成功を収めた
しかし、データアノテーションやモデルトレーニングに関連するコストは依然として大きい。
本調査では,低リソースデータからの学習に伴う一般化誤差とラベル複雑性を分析するために,アクティブサンプリング理論を用いた。
- 参考スコア(独自算出の注目度): 192.53529928861818
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Learning with high-resource data has demonstrated substantial success in artificial intelligence (AI); however, the costs associated with data annotation and model training remain significant. A fundamental objective of AI research is to achieve robust generalization with limited-resource data. This survey employs agnostic active sampling theory within the Probably Approximately Correct (PAC) framework to analyze the generalization error and label complexity associated with learning from low-resource data in both model-agnostic supervised and unsupervised settings. Based on this analysis, we investigate a suite of optimization strategies tailored for low-resource data learning, including gradient-informed optimization, meta-iteration optimization, geometry-aware optimization, and LLMs-powered optimization. Furthermore, we provide a comprehensive overview of multiple learning paradigms that can benefit from low-resource data, including domain transfer, reinforcement feedback, and hierarchical structure modeling. Finally, we conclude our analysis and investigation by summarizing the key findings and highlighting their implications for learning with low-resource data.
- Abstract(参考訳): 高リソースデータによる学習は人工知能(AI)において大きな成功を収めてきたが、データアノテーションやモデルトレーニングに関連するコストは依然として大きい。
AI研究の基本的な目的は、限られたリソースデータで堅牢な一般化を実現することである。
本調査では, モデルに依存しない, 教師なしの設定の両方において, 低リソースデータから学習する際の一般化誤差とラベルの複雑さを解析するために, 確率的近似(PAC)フレームワーク内で, 能動サンプリング理論を用いる。
この分析に基づいて、勾配インフォームド最適化、メタイテレーション最適化、幾何認識最適化、LLMによる最適化など、低リソースデータ学習に適した一連の最適化戦略を検討する。
さらに、ドメイン転送、強化フィードバック、階層構造モデリングなど、低リソースデータから恩恵を受けることができる複数の学習パラダイムの包括的概要を提供する。
最後に、重要な知見を要約し、低リソースデータを用いた学習におけるその意義を明らかにすることで、分析と調査を締めくくった。
関連論文リスト
- Pushing LLMs to Their Logical Reasoning Bound: The Role of Data Reasoning Intensity [59.27594125465172]
データ推論強度 (Data Reasoning Intensity, DRI) は, サンプルの潜在論理的推論複雑性を定量化する新しい指標である。
次に、学習データの論理的推論強度を体系的に強化する再認識最適化戦略を導入する。
論文 参考訳(メタデータ) (2025-09-29T14:20:04Z) - Teaching LLMs to Think Mathematically: A Critical Study of Decision-Making via Optimization [1.246870021158888]
本稿では,大規模言語モデル(LLM)の数学的プログラミングによる意思決定問題の定式化と解決能力について検討する。
まず、LLMがドメイン間の最適化問題をいかに理解し、構造化し、解決するかを評価するため、最近の文献の体系的レビューとメタ分析を行う。
計算機ネットワークにおける問題に対する最適化モデルの自動生成において、最先端のLLMの性能を評価するために設計されたターゲット実験により、系統的エビデンスを補完する。
論文 参考訳(メタデータ) (2025-08-25T14:52:56Z) - Why Do Open-Source LLMs Struggle with Data Analysis? A Systematic Empirical Study [55.09905978813599]
大規模言語モデル(LLM)は、データ分析タスクの自動化を約束する。
しかし、オープンソースモデルは、このような推論集約的なシナリオにおいて、重大な制限に直面している。
本研究では,オープンソースLLMのデータ解析機能を強化するための戦略について検討する。
論文 参考訳(メタデータ) (2025-06-24T17:04:23Z) - Aggregating empirical evidence from data strategy studies: a case on model quantization [5.467675229660525]
本研究では,モデル量子化がディープラーニング(DL)システムの正しさと資源効率に及ぼす影響を評価する。
本研究では, 構造化合成法(Structured Synthesis Method, SSM)を適用した。
論文 参考訳(メタデータ) (2025-05-01T19:18:35Z) - Large Language Models and Synthetic Data for Monitoring Dataset Mentions in Research Papers [0.0]
本稿では,研究領域間のデータセット参照検出を自動化する機械学習フレームワークを提案する。
我々は,研究論文からゼロショット抽出,品質評価のためのLCM-as-a-Judge,および改良のための推論剤を用いて,弱教師付き合成データセットを生成する。
推論では、ModernBERTベースの分類器がデータセットの参照を効率的にフィルタリングし、高いリコールを維持しながら計算オーバーヘッドを低減する。
論文 参考訳(メタデータ) (2025-02-14T16:16:02Z) - Graph Neural Network-Driven Hierarchical Mining for Complex Imbalanced Data [0.8246494848934447]
本研究では,高次元不均衡データの階層的マイニングフレームワークを提案する。
データセットの構造化グラフ表現を構築し、グラフニューラルネットワークの埋め込みを統合することにより、提案手法は、サンプル間のグローバルな相互依存性を効果的にキャプチャする。
複数の実験シナリオにまたがる実証実験により,提案手法の有効性が検証された。
論文 参考訳(メタデータ) (2025-02-06T06:26:41Z) - Empowering Meta-Analysis: Leveraging Large Language Models for Scientific Synthesis [7.059964549363294]
本研究では,大規模言語モデル(LLM)を用いた科学文献におけるメタアナリシスの自動化について検討する。
ビッグデータ処理と構造化データ抽出の課題に対処するため,LLMを広範囲の科学的データセットに微調整する新たなアプローチを提案する。
論文 参考訳(メタデータ) (2024-11-16T20:18:57Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。