論文の概要: Managing Data Lineage of O&G Machine Learning Models: The Sweet Spot for
Shale Use Case
- arxiv url: http://arxiv.org/abs/2003.04915v1
- Date: Tue, 10 Mar 2020 18:10:16 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-24 21:56:05.233425
- Title: Managing Data Lineage of O&G Machine Learning Models: The Sweet Spot for
Shale Use Case
- Title(参考訳): O&G機械学習モデルのデータリニアジ管理:シェールユースケースのためのスイートスポット
- Authors: Raphael Thiago, Renan Souza, L. Azevedo, E. Soares, Rodrigo Santos,
Wallas Santos, Max De Bayser, M. Cardoso, M. Moreno, and Renato Cerqueira
- Abstract要約: 機械学習のライフサイクルに利益をもたらすために、データの系統をどのように活用できるかについて議論する。
これは石油・ガス産業における主要な応用である。
- 参考スコア(独自算出の注目度): 1.366942647553326
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Machine Learning (ML) has increased its role, becoming essential in several
industries. However, questions around training data lineage, such as "where has
the dataset used to train this model come from?"; the introduction of several
new data protection legislation; and, the need for data governance
requirements, have hindered the adoption of ML models in the real world. In
this paper, we discuss how data lineage can be leveraged to benefit the ML
lifecycle to build ML models to discover sweet-spots for shale oil and gas
production, a major application in the Oil and Gas O&G Industry.
- Abstract(参考訳): 機械学習(ML)は、いくつかの業界で欠かせない役割を担っている。
しかしながら、"このモデルをトレーニングするために使用されるデータセットはどこから来たのか?"、いくつかの新しいデータ保護法の導入、データガバナンス要件の必要性など、データ系統のトレーニングに関する疑問は、現実の世界におけるMLモデルの採用を妨げている。
本稿では,シェールオイルとガス生産のためのスイートスポットを発見するためのMLモデルを構築するために,MLライフサイクルの恩恵を受けるために,データ系統をどのように活用できるかを論じる。
関連論文リスト
- Forewarned is Forearmed: Leveraging LLMs for Data Synthesis through Failure-Inducing Exploration [90.41908331897639]
大規模言語モデル(LLM)は、多種多様な高品質なタスク特化データのトレーニングの恩恵を受けている。
本稿では,効果的なトレーニングサンプルを自動生成する新しい手法であるReverseGenを提案する。
論文 参考訳(メタデータ) (2024-10-22T06:43:28Z) - The Frontier of Data Erasure: Machine Unlearning for Large Language Models [56.26002631481726]
大規模言語モデル(LLM)はAIの進歩の基礎となっている。
LLMは機密情報、偏見情報、著作権情報を記憶し、広めることによってリスクを生じさせる。
機械学習は、これらの懸念を軽減するための最先端のソリューションとして現れます。
論文 参考訳(メタデータ) (2024-03-23T09:26:15Z) - Large Language Models for Data Annotation: A Survey [49.8318827245266]
LLM(Advanced Large Language Models)の出現は、データアノテーションの複雑なプロセスを自動化する前例のない機会を提供する。
この調査には、LLMが注釈付けできるデータタイプの詳細な分類、LLM生成アノテーションを利用したモデルの学習戦略のレビュー、データアノテーションにLLMを使用する際の主な課題と制限に関する詳細な議論が含まれている。
論文 参考訳(メタデータ) (2024-02-21T00:44:04Z) - Curated LLM: Synergy of LLMs and Data Curation for tabular augmentation in low-data regimes [57.62036621319563]
本稿では,Large Language Models (LLMs) の知識を低データ構造におけるデータ拡張に活用したCLLMを紹介する。
従来のジェネレータと比較して,低データ方式におけるCLLMの優れた性能を示す。
論文 参考訳(メタデータ) (2023-12-19T12:34:46Z) - A Data-Centric Online Market for Machine Learning: From Discovery to
Pricing [36.01287194385664]
本稿では,機械学習のためのデータ中心市場を設計する上での2つの課題に対処する新しい手法を提案する。
数千のデータセットのプールから任意のMLタスクの有用なデータを自動的に検出するアルゴリズムを設計する。
また、データ拡張MLモデルを販売するための新しい価格体系を設計する。
論文 参考訳(メタデータ) (2023-10-27T01:49:13Z) - Learn to Unlearn: A Survey on Machine Unlearning [29.077334665555316]
本稿では,最近の機械学習技術,検証機構,潜在的攻撃について概説する。
新たな課題と今後の研究方向性を強調します。
本稿では、プライバシ、エクイティ、レジリエンスをMLシステムに統合するための貴重なリソースの提供を目的としている。
論文 参考訳(メタデータ) (2023-05-12T14:28:02Z) - SimbaML: Connecting Mechanistic Models and Machine Learning with
Augmented Data [0.0]
SimbaMLは、通常の微分方程式に基づくモデルからリアルな合成データセットを生成するオープンソースツールである。
SimbaMLは、合成データから実世界のデータへの変換学習を便利に調査することができる。
論文 参考訳(メタデータ) (2023-04-08T12:50:50Z) - DMOps: Data Management Operation and Recipes [2.28438857884398]
データ中心のAIは、機械学習(ML)パイプライン内のデータの重要性に光を当てている。
我々は,NLP製品のデータセット構築を最適化する上で,業界を導く「データ管理運用とレシピ」を提案する。
論文 参考訳(メタデータ) (2023-01-02T09:46:53Z) - Privacy Adhering Machine Un-learning in NLP [66.17039929803933]
現実の業界では、機械学習を使ってユーザデータに基づくモデルを構築します。
このような委任事項には、データだけでなく、モデルの再トレーニングにも労力が要る。
データの継続的な削除と モデル再訓練のステップはスケールしません
この課題に対処するために、textitMachine Unlearningを提案する。
論文 参考訳(メタデータ) (2022-12-19T16:06:45Z) - A Survey of Machine Unlearning [56.017968863854186]
最近の規制では、要求に応じて、ユーザに関する個人情報をコンピュータシステムから削除する必要がある。
MLモデルは古いデータをよく記憶します。
機械学習に関する最近の研究は、この問題を完全に解決することはできなかった。
論文 参考訳(メタデータ) (2022-09-06T08:51:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。