論文の概要: ODIN: On-demand Data Formulation to Mitigate Dataset Lock-in
- arxiv url: http://arxiv.org/abs/2303.06832v2
- Date: Thu, 16 Mar 2023 05:44:50 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-17 11:41:51.913714
- Title: ODIN: On-demand Data Formulation to Mitigate Dataset Lock-in
- Title(参考訳): ODIN:データセットロックインを軽減するオンデマンドデータ定式化
- Authors: SP Choi, Jihun Lee, Hyeongseok Ahn, Sanghee Jung, Bumsoo Kang
- Abstract要約: ODINは、生成AIモデルを統合することでデータセット制約の問題に対処する革新的なアプローチである。
プロンプトジェネレータ、テキスト・ツー・イメージジェネレータ、イメージ・ポストプロセッサの3つの主要モジュールで構成されている。
モデル精度とデータ多様性の観点から様々なデータセット上でODINを評価し,その可能性を実証した。
- 参考スコア(独自算出の注目度): 4.661827364066434
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: ODIN is an innovative approach that addresses the problem of dataset
constraints by integrating generative AI models. Traditional zero-shot learning
methods are constrained by the training dataset. To fundamentally overcome this
limitation, ODIN attempts to mitigate the dataset constraints by generating
on-demand datasets based on user requirements. ODIN consists of three main
modules: a prompt generator, a text-to-image generator, and an image
post-processor. To generate high-quality prompts and images, we adopted a large
language model (e.g., ChatGPT), and a text-to-image diffusion model (e.g.,
Stable Diffusion), respectively. We evaluated ODIN on various datasets in terms
of model accuracy and data diversity to demonstrate its potential, and
conducted post-experiments for further investigation. Overall, ODIN is a
feasible approach that enables Al to learn unseen knowledge beyond the training
dataset.
- Abstract(参考訳): ODINは、生成AIモデルを統合することでデータセット制約の問題に対処する革新的なアプローチである。
従来のゼロショット学習方法はトレーニングデータセットによって制約される。
この制限を根本的に克服するため、ODINは、ユーザ要求に基づいてオンデマンドデータセットを生成することにより、データセット制約を緩和しようとする。
ODINは、プロンプトジェネレータ、テキスト・ツー・イメージジェネレータ、イメージ・ポストプロセッサの3つの主要モジュールで構成されている。
高品質なプロンプトと画像を生成するために,大言語モデル(chatgptなど)とテキストから画像への拡散モデル(安定拡散など)をそれぞれ採用した。
モデル精度とデータ多様性の観点から様々なデータセット上でODINを評価し,その可能性を示すとともに,さらなる調査のために実験後実験を行った。
全体として、ODINは、Alがトレーニングデータセット以外の見えない知識を学習できるようにする、実現可能なアプローチである。
関連論文リスト
- Towards a Theoretical Understanding of Memorization in Diffusion Models [76.85077961718875]
拡散確率モデル(DPM)は、生成人工知能(GenAI)の主流モデルとして採用されている。
モデル収束を前提とした条件付きおよび非条件付きDPMにおける記憶の理論的理解を提供する。
本研究では、生成されたデータに基づいて訓練された時間依存型分類器を代理条件として利用し、無条件DPMからトレーニングデータを抽出する、textbfSurrogate condItional Data extract (SIDE) という新しいデータ抽出手法を提案する。
論文 参考訳(メタデータ) (2024-10-03T13:17:06Z) - Continual learning with task specialist [2.8830182365988923]
破滅的な忘れと限定されたラベル付きデータの問題に対処するために,タスクスペシャリストによる連続学習(CLTS)を提案する。
モデルはタスクスペシャリスト(T S)とタスク予測器(T P)と、事前訓練された安定拡散(SD)モジュールで構成される。
3つの実世界のデータセットで行った4つのSOTAモデルとの比較研究により、提案モデルが選択されたベースラインすべてより優れていることが示された。
論文 参考訳(メタデータ) (2024-09-26T12:59:09Z) - Distilling Vision-Language Foundation Models: A Data-Free Approach via Prompt Diversification [49.41632476658246]
我々は、数十億レベルの画像テキストデータセットにアクセスすることなく、DFKDをVision-Language Foundation Modelsに拡張することについて議論する。
目的は,配当に依存しないダウンストリームタスクに対して,与えられたカテゴリ概念を学生モデルにカスタマイズすることである。
本稿では,多様なスタイルで画像合成を促進するために,3つの新しいプロンプト分岐法を提案する。
論文 参考訳(メタデータ) (2024-07-21T13:26:30Z) - DiSK: A Diffusion Model for Structured Knowledge [12.472921856815942]
Diffusion Models of Structured Knowledge (DiSK) は構造化データに特化した新しいアーキテクチャとトレーニング手法である。
DiSKはガウス混合モデルアプローチを用いてテキスト、分類、連続的な数値データを処理する。
論文 参考訳(メタデータ) (2023-12-08T18:59:14Z) - Zero-shot Composed Text-Image Retrieval [72.43790281036584]
合成画像検索(CIR)の問題点を考察する。
テキストや画像などのマルチモーダル情報を融合し、クエリにマッチする画像を正確に検索し、ユーザの表現能力を拡張できるモデルをトレーニングすることを目的としている。
論文 参考訳(メタデータ) (2023-06-12T17:56:01Z) - Self-augmented Data Selection for Few-shot Dialogue Generation [18.794770678708637]
我々は,MR-to-Text生成問題に対処するために,自己学習フレームワークを採用する。
我々は,我々の生成モデルが最も不確実なデータを選択するための新しいデータ選択戦略を提案する。
論文 参考訳(メタデータ) (2022-05-19T16:25:50Z) - PromDA: Prompt-based Data Augmentation for Low-Resource NLU Tasks [61.51515750218049]
本稿では,低リソース自然言語理解(NLU)タスクのためのデータ拡張について述べる。
小型ソフト・プロンプトのみを訓練するPrompt-based Data Augmentation Model (PromDA)を提案する。
PromDAは2つの異なるビューを通して合成データを生成し、低品質データをNLUモデルを用いてフィルタリングする。
論文 参考訳(メタデータ) (2022-02-25T05:09:27Z) - Decentralized Federated Learning Preserves Model and Data Privacy [77.454688257702]
我々は、訓練されたモデル間で知識を共有することができる、完全に分散化されたアプローチを提案する。
生徒は、合成された入力データを通じて教師の出力を訓練する。
その結果,教師が学習した未学習学生モデルが,教師と同等のF1スコアに達することがわかった。
論文 参考訳(メタデータ) (2021-02-01T14:38:54Z) - Unsupervised Paraphrasing with Pretrained Language Models [85.03373221588707]
教師なし環境で,事前学習した言語モデルを用いて高品質なパラフレーズを生成する訓練パイプラインを提案する。
提案手法は,タスク適応,自己スーパービジョン,動的ブロッキング(Dynamic Blocking)という新しい復号アルゴリズムから構成される。
提案手法は,Quora Question PairとParaNMTの両方のデータセット上で,最先端の性能を達成できることを示す。
論文 参考訳(メタデータ) (2020-10-24T11:55:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。