論文の概要: Non-contrastive representation learning for intervals from well logs
- arxiv url: http://arxiv.org/abs/2209.14750v3
- Date: Fri, 10 Nov 2023 08:49:47 GMT
- ステータス: 処理完了
- システム内更新日: 2023-11-14 22:53:52.178898
- Title: Non-contrastive representation learning for intervals from well logs
- Title(参考訳): ウェルログからの区間の非連続表現学習
- Authors: Alexander Marusov, Alexey Zaytsev
- Abstract要約: 石油・ガス産業における表現学習問題は、ログデータに基づく表現を一定間隔で提供するモデルを構築することを目的としている。
可能なアプローチの1つは、自己教師付き学習(SSL)である。
私たちは、よくログするデータのための非コントラストSSLを最初に導入しました。
- 参考スコア(独自算出の注目度): 58.70164460091879
- License: http://creativecommons.org/publicdomain/zero/1.0/
- Abstract: The representation learning problem in the oil & gas industry aims to
construct a model that provides a representation based on logging data for a
well interval. Previous attempts are mainly supervised and focus on similarity
task, which estimates closeness between intervals. We desire to build
informative representations without using supervised (labelled) data. One of
the possible approaches is self-supervised learning (SSL). In contrast to the
supervised paradigm, this one requires little or no labels for the data.
Nowadays, most SSL approaches are either contrastive or non-contrastive.
Contrastive methods make representations of similar (positive) objects closer
and distancing different (negative) ones. Due to possible wrong marking of
positive and negative pairs, these methods can provide an inferior performance.
Non-contrastive methods don't rely on such labelling and are widespread in
computer vision. They learn using only pairs of similar objects that are easier
to identify in logging data.
We are the first to introduce non-contrastive SSL for well-logging data. In
particular, we exploit Bootstrap Your Own Latent (BYOL) and Barlow Twins
methods that avoid using negative pairs and focus only on matching positive
pairs. The crucial part of these methods is an augmentation strategy. Our
augmentation strategies and adaption of BYOL and Barlow Twins together allow us
to achieve superior quality on clusterization and mostly the best performance
on different classification tasks. Our results prove the usefulness of the
proposed non-contrastive self-supervised approaches for representation learning
and interval similarity in particular.
- Abstract(参考訳): 石油・ガス産業における表現学習問題は,十分な間隔でログデータに基づく表現を提供するモデルの構築を目的としている。
以前の試みは主に監督され、間隔間の近さを推定する類似性タスクに焦点を当てていた。
教師付き(ラベル付き)データを使わずに、情報表現を構築したいのです。
可能なアプローチの1つは、自己教師付き学習(SSL)である。
教師付きパラダイムとは対照的に、データのラベルはほとんど、あるいは全く必要としない。
現在、ほとんどのSSLアプローチはコントラスト的または非コントラスト的である。
対照的な方法では、類似の(正の)オブジェクトの表現をより近くし、異なる(負の)オブジェクトを区別する。
正と負のペアの誤印が考えられるため、これらの手法は性能が劣る。
非コントラスト法はそのようなラベリングに依存しておらず、コンピュータビジョンで広く使われている。
ログデータの識別が容易な類似したオブジェクトのペアのみを使用して学習する。
私たちは、よくログするデータのための非コントラストSSLを最初に導入しました。
特にBootstrap Your Own Latent(BYOL)とBarlow Twinsメソッドを利用して、負のペアの使用を回避し、正のペアにのみフォーカスする。
これらの方法の重要な部分は強化戦略である。
BYOLとBarlow Twinsの強化戦略と適応により、クラスタ化における優れた品質と、主に異なる分類タスクにおける最高のパフォーマンスを実現できます。
提案する非矛盾的自己教師付きアプローチが,特に表現学習と区間類似性に有用であることを示す。
関連論文リスト
- Regularized Contrastive Partial Multi-view Outlier Detection [76.77036536484114]
RCPMOD(Regularized Contrastive partial Multi-view Outlier Detection)と呼ばれる新しい手法を提案する。
このフレームワークでは、コントラスト学習を利用して、ビュー一貫性のある情報を学び、一貫性の度合いでアウトレイラを識別する。
4つのベンチマークデータセットによる実験結果から,提案手法が最先端の競合より優れていることが示された。
論文 参考訳(メタデータ) (2024-08-02T14:34:27Z) - A Closer Look at Benchmarking Self-Supervised Pre-training with Image Classification [51.35500308126506]
自己教師付き学習(SSL)は、データ自体が監視を提供する機械学習アプローチであり、外部ラベルの必要性を排除している。
SSLの分類に基づく評価プロトコルがどのように相関し、異なるデータセットのダウンストリーム性能を予測するかを検討する。
論文 参考訳(メタデータ) (2024-07-16T23:17:36Z) - Prototypical Contrastive Learning through Alignment and Uniformity for
Recommendation [6.790779112538357]
提案するアンダーライン・アライメントとアンダーライン・ユニフォーマル性によるインダーライン型コントラスト学習について述べる。
具体的には、まず、原点グラフから異なる拡張点間の整合性を確保するために、潜時空間としてプロトタイプを提案する。
明示的な負の欠如は、インスタンスとプロトタイプ間の整合性損失を直接最適化することで、次元的な崩壊の問題が容易に生じることを意味する。
論文 参考訳(メタデータ) (2024-02-03T08:19:26Z) - Semantic Positive Pairs for Enhancing Visual Representation Learning of Instance Discrimination methods [4.680881326162484]
インスタンス識別に基づく自己教師付き学習アルゴリズム(SSL)は有望な結果を示している。
類似したセマンティックコンテンツを用いてそれらの画像を識別し、肯定的な例として扱うアプローチを提案する。
我々は、ImageNet、STL-10、CIFAR-10の3つのベンチマークデータセットで、異なるインスタンス識別SSLアプローチで実験を行った。
論文 参考訳(メタデータ) (2023-06-28T11:47:08Z) - Revisiting Contrastive Methods for Unsupervised Learning of Visual
Representations [78.12377360145078]
対照的な自己教師型学習は、セグメンテーションやオブジェクト検出といった多くの下流タスクにおいて教師付き事前訓練よりも優れています。
本稿では,データセットのバイアスが既存手法にどのように影響するかを最初に検討する。
現在のコントラストアプローチは、(i)オブジェクト中心対シーン中心、(ii)一様対ロングテール、(iii)一般対ドメイン固有データセットなど、驚くほどうまく機能することを示す。
論文 参考訳(メタデータ) (2021-06-10T17:59:13Z) - Understanding self-supervised Learning Dynamics without Contrastive
Pairs [72.1743263777693]
自己監視学習(SSL)に対する対照的アプローチは、同じデータポイントの2つの拡張ビュー間の距離を最小限にすることで表現を学習する。
BYOLとSimSiamは、負のペアなしで素晴らしいパフォーマンスを示す。
単純線形ネットワークにおける非コントラストSSLの非線形学習ダイナミクスについて検討する。
論文 参考訳(メタデータ) (2021-02-12T22:57:28Z) - Unsupervised Feature Learning by Cross-Level Instance-Group
Discrimination [68.83098015578874]
我々は、インスタンスグループ化ではなく、クロスレベルな識別によって、インスタンス間の類似性を対照的な学習に統合する。
CLDは、教師なし学習を、自然データや現実世界のアプリケーションに効果的に近づける。
セルフスーパービジョン、セミスーパービジョン、トランスファーラーニングベンチマークに関する新たな最先端技術は、報告されたすべてのパフォーマンスでMoCo v2とSimCLRを上回っている。
論文 参考訳(メタデータ) (2020-08-09T21:13:13Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。