論文の概要: Manually Selecting The Data Function for Supervised Learning of small
datasets
- arxiv url: http://arxiv.org/abs/2303.03894v1
- Date: Tue, 7 Mar 2023 13:38:04 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-08 15:12:05.417230
- Title: Manually Selecting The Data Function for Supervised Learning of small
datasets
- Title(参考訳): 小データセットの教師付き学習のためのデータ関数のマニュアル選択
- Authors: Amir Khanjari and Saeid Pourmand and Mohammad Reza Faridrohani
- Abstract要約: 教師付き学習問題は、情報の欠如によって悪用される可能性がある。
情報に乏しい演算子を初期化することは、より正確な答えを得るためにより良い質問をするのに似ている。
第1種(FIFK)のフレドホルム積分方程式(Fredholm integral equation of the first kind)は、分布と事前知識を入力情報として統合できる信頼できない演算子である。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Supervised learning problems may become ill-posed when there is a lack of
information, resulting in unstable and non-unique solutions. However, instead
of solely relying on regularization, initializing an informative ill-posed
operator is akin to posing better questions to achieve more accurate answers.
The Fredholm integral equation of the first kind (FIFK) is a reliable ill-posed
operator that can integrate distributions and prior knowledge as input
information. By incorporating input distributions and prior knowledge, the FIFK
operator can address the limitations of using high-dimensional input
distributions by semi-supervised assumptions, leading to more precise
approximations of the integral operator. Additionally, the FIFK's incorporation
of probabilistic principles can further enhance the accuracy and effectiveness
of solutions. In cases of noisy operator equations and limited data, the FIFK's
flexibility in defining problems using prior information or cross-validation
with various kernel designs is especially advantageous. This capability allows
for detailed problem definitions and facilitates achieving high levels of
accuracy and stability in solutions. In our study, we examined the FIFK through
two different approaches. Firstly, we implemented a semi-supervised assumption
by using the same Fredholm operator kernel and data function kernel and
incorporating unlabeled information. Secondly, we used the MSDF method, which
involves selecting different kernels on both sides of the equation to define
when the mapping kernel is different from the data function kernel. To assess
the effectiveness of the FIFK and the proposed methods in solving ill-posed
problems, we conducted experiments on a real-world dataset. Our goal was to
compare the performance of these methods against the widely used least-squares
method and other comparable methods.
- Abstract(参考訳): 教師付き学習問題は、情報の不足が原因で不適切になり、不安定で非特異な解決策が生まれる。
しかし、正規化のみに頼るのではなく、情報的な不正な演算子の初期化は、より正確な答えを得るためにより良い質問をするのに近い。
フレドホルム積分方程式 (fredholm integral equation of the first kind, fifk) は、分布と事前知識を入力情報として統合できる信頼できない演算子である。
入力分布と事前知識を組み込むことで、FIFK演算子は半教師付き仮定によって高次元の入力分布を使用することの限界に対処でき、積分作用素をより正確に近似することができる。
さらに、fifkの確率原理の導入は、ソリューションの正確性と有効性をさらに高めることができる。
ノイズの多い演算子方程式や限られたデータの場合、FIFKの事前情報や様々なカーネル設計によるクロスバリデーションによる問題定義の柔軟性は特に有利である。
この能力は、詳細な問題定義を可能にし、ソリューションにおける高いレベルの正確性と安定性を達成するのに役立ちます。
本研究では,FIFKを2つの異なるアプローチで検討した。
まず,同じフレドホルム演算子カーネルとデータ関数カーネルを用いて,ラベルなし情報を含む半教師付き仮定を実装した。
次に,データ関数カーネルとマッピングカーネルが異なる場合を定義するために,方程式の両側で異なるカーネルを選択するmsdf法を用いた。
FIFKと提案手法の有効性を評価するため,実世界のデータセットを用いて実験を行った。
我々の目標は、これらの手法の性能を、広く使われている最小二乗法や他の同等の手法と比較することであった。
関連論文リスト
- Joint Optimization of Resource Allocation and Data Selection for Fast and Cost-Efficient Federated Edge Learning [9.460012379815423]
FEEL(FEEL)を導入したワイヤレスエッジでの学習
本稿では,効率的なシステム,連合型共同資源割り当てとデータ選択を提案する。
共同資源配分とデータ選択という提案手法の優位性を検証した。
論文 参考訳(メタデータ) (2024-07-03T08:03:59Z) - Efficient Prior Calibration From Indirect Data [5.588334720483076]
本稿では,データから先行モデルを学習すること,特にノイズ観測プロセスを通じて得られた間接データの多元的実現から先行モデルを学習することに関心がある。
フォワードモデルの効率的な残差ベースニューラル演算子近似を提案し,これをプッシュフォワードマップと同時学習できることを示した。
論文 参考訳(メタデータ) (2024-05-28T08:34:41Z) - Data Imputation by Pursuing Better Classification: A Supervised Kernel-Based Method [23.16359277296206]
本稿では, 監視情報を効果的に活用し, 欠落したデータを分類する手法を提案する。
我々のアルゴリズムは、データの60%以上が欠落している場合、他の手法よりもはるかに優れています。
論文 参考訳(メタデータ) (2024-05-13T14:44:02Z) - Equation Discovery with Bayesian Spike-and-Slab Priors and Efficient Kernels [57.46832672991433]
ケルネル学習とBayesian Spike-and-Slab pres (KBASS)に基づく新しい方程式探索法を提案する。
カーネルレグレッションを用いてターゲット関数を推定する。これはフレキシブルで表現力があり、データ空間やノイズに対してより堅牢である。
我々は,効率的な後部推論と関数推定のための予測伝搬予測最大化アルゴリズムを開発した。
論文 参考訳(メタデータ) (2023-10-09T03:55:09Z) - Local Learning Matters: Rethinking Data Heterogeneity in Federated
Learning [61.488646649045215]
フェデレートラーニング(FL)は、クライアントのネットワーク(エッジデバイス)でプライバシ保護、分散ラーニングを行うための有望な戦略である。
論文 参考訳(メタデータ) (2021-11-28T19:03:39Z) - Numerical Approximation in CFD Problems Using Physics Informed Machine
Learning [0.0]
この論文は、幅広いCFD問題に普遍的に使用できる代替近似法を見つけるための様々な手法に焦点を当てている。
その焦点は、微分方程式を計算データによるトレーニングなしで解くことができるような、物理情報に基づく機械学習技術に留まっている。
極端な学習機械(ELM)は、チューナブルパラメーターを犠牲にして非常に高速なニューラルネットワークアルゴリズムである。
論文 参考訳(メタデータ) (2021-11-01T22:54:51Z) - Offline Model-Based Optimization via Normalized Maximum Likelihood
Estimation [101.22379613810881]
データ駆動最適化の問題を検討し、一定の点セットでクエリのみを与えられた関数を最大化する必要がある。
この問題は、関数評価が複雑で高価なプロセスである多くの領域に現れる。
我々は,提案手法を高容量ニューラルネットワークモデルに拡張可能なトラクタブル近似を提案する。
論文 参考訳(メタデータ) (2021-02-16T06:04:27Z) - Federated Doubly Stochastic Kernel Learning for Vertically Partitioned
Data [93.76907759950608]
本稿では,垂直分割データに対する2倍のカーネル学習アルゴリズムを提案する。
本稿では,FDSKLがカーネルを扱う場合,最先端のフェデレーション学習手法よりもはるかに高速であることを示す。
論文 参考訳(メタデータ) (2020-08-14T05:46:56Z) - Learning while Respecting Privacy and Robustness to Distributional
Uncertainties and Adversarial Data [66.78671826743884]
分散ロバストな最適化フレームワークはパラメトリックモデルのトレーニングのために検討されている。
目的は、逆操作された入力データに対して頑健なトレーニングモデルを提供することである。
提案されたアルゴリズムは、オーバーヘッドがほとんどない堅牢性を提供する。
論文 参考訳(メタデータ) (2020-07-07T18:25:25Z) - Focus of Attention Improves Information Transfer in Visual Features [80.22965663534556]
本稿では,真のオンライン環境下での視覚情報伝達のための教師なし学習に焦点を当てた。
エントロピー項の計算は、エントロピー項のオンライン推定を行う時間的プロセスによって行われる。
入力確率分布をよりよく構成するために,人間のような注目モデルを用いる。
論文 参考訳(メタデータ) (2020-06-16T15:07:25Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。