論文の概要: Are You an Introvert or Extrovert? Accurate Classification With Only Ten
Predictors
- arxiv url: http://arxiv.org/abs/2003.01580v1
- Date: Sat, 29 Feb 2020 04:30:54 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-27 20:16:16.110991
- Title: Are You an Introvert or Extrovert? Accurate Classification With Only Ten
Predictors
- Title(参考訳): あなたは内向的か外向的か?
10個の予測器による正確な分類
- Authors: Chaehan So
- Abstract要約: この測定器のサイズを94から10まで効果的に小さくすることができ、性能損失は1%に留まる。
SMOTEやADASYNのようなクラス不均衡補正手法では、検証セットは大幅に改善されたが、テストセットはわずかに改善されただけだった。
- 参考スコア(独自算出の注目度): 1.52292571922932
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This paper investigates how accurately the prediction of being an introvert
vs. extrovert can be made with less than ten predictors. The study is based on
a previous data collection of 7161 respondents of a survey on 91 personality
and 3 demographic items. The results show that it is possible to effectively
reduce the size of this measurement instrument from 94 to 10 features with a
performance loss of only 1%, achieving an accuracy of 73.81% on unseen data.
Class imbalance correction methods like SMOTE or ADASYN showed considerable
improvement on the validation set but only minor performance improvement on the
testing set.
- Abstract(参考訳): 本稿では,10人未満の予測者で内向型対外向型の予測がいかに正確かを検討する。
この調査は、91人のパーソナリティと3つの人口統計項目に関する調査の7161人の過去のデータを基にしている。
その結果、この測定器のサイズを94から10に効果的に減らすことができ、性能損失はわずか1%であり、未確認データでは73.81%の精度が得られることがわかった。
SMOTEやADASYNのようなクラス不均衡補正手法では、検証セットは大幅に改善されたが、テストセットはわずかに改善されただけだった。
関連論文リスト
- Measuring and Improving Attentiveness to Partial Inputs with
Counterfactuals [95.5442607785241]
我々は,新しい評価手法であるCAT(Facterfactual Attentiveness Test)を提案する。
CATは、入力の一部を別の例から別の例に置き換えることで、予測を変更する注意深いモデルを期待することで、反事実を使用する。
実験データの精度が向上する一方, GPT3 は実演回数の増加により注意力の低下がみられた。
論文 参考訳(メタデータ) (2023-11-16T06:27:35Z) - Conservative Prediction via Data-Driven Confidence Minimization [66.35245313125934]
機械学習モデルのエラーは、特に医療のような安全クリティカルな領域では、コストがかかる。
本稿では、不確実性データセットに対する信頼性を最小化するデータ駆動型信頼性最小化(DCM)を提案する。
実験の結果、DCMは8つのID-OODデータセットペアに対して、最先端のOOD検出方法よりも一貫して優れていることがわかった。
論文 参考訳(メタデータ) (2023-06-08T07:05:36Z) - ASPEST: Bridging the Gap Between Active Learning and Selective
Prediction [56.001808843574395]
選択予測は、不確実な場合の予測を棄却する信頼性のあるモデルを学ぶことを目的としている。
アクティブラーニングは、最も有意義な例を問うことで、ラベリングの全体、すなわち人間の依存度を下げることを目的としている。
本研究では,移動対象領域からより情報のあるサンプルを検索することを目的とした,新たな学習パラダイムである能動的選択予測を導入する。
論文 参考訳(メタデータ) (2023-04-07T23:51:07Z) - Efficient, Uncertainty-based Moderation of Neural Networks Text
Classifiers [8.883733362171034]
本稿では,分類器の出力を効率よく操作できるフレームワークを提案する。
予測の不確実性を利用して、不確実で、おそらく不正確な分類を人間のモデレーターに渡す半自動化アプローチを提案する。
一連のベンチマーク実験により、我々のフレームワークは分類F1スコアを5.1から11.2%改善できることが示された。
論文 参考訳(メタデータ) (2022-04-04T09:07:54Z) - Agree to Disagree: Diversity through Disagreement for Better
Transferability [54.308327969778155]
本稿では,D-BAT(Diversity-By-dis-Agreement Training)を提案する。
我々は、D-BATが一般化された相違の概念から自然に現れることを示す。
論文 参考訳(メタデータ) (2022-02-09T12:03:02Z) - Testing using Privileged Information by Adapting Features with
Statistical Dependence [41.64621679913436]
テスト時に追加機能を利用することで、再トレーニングや予測関数の知識のない予測を改善する。
我々は,初期雑音予測器と付加特徴との統計的依存を実験的に推定し,強化する。
一例として,本手法が実世界の視覚的ランキングの改善につながることを示す。
論文 参考訳(メタデータ) (2021-11-04T13:45:34Z) - To be Critical: Self-Calibrated Weakly Supervised Learning for Salient
Object Detection [95.21700830273221]
弱教師付き有色物体検出(WSOD)は,画像レベルのアノテーションを用いた有色度モデルの開発を目的としている。
擬似ラベルとネットワーク予測の相互校正ループを明確に設定し,自己校正学習戦略を提案する。
十分に整合したアノテーションを持つはるかに小さなデータセットであっても、モデルがより優れたパフォーマンスと一般化性を達成するのに役立ちます。
論文 参考訳(メタデータ) (2021-09-04T02:45:22Z) - Fair Visual Recognition in Limited Data Regime using Self-Supervision
and Self-Distillation [31.386413758098243]
我々は、モデルに対するバイアスの影響を低減するために、自己超越と自己蒸留に適応する。
実験によって、我々のアプローチはモデルで学んだバイアスを大幅に削減できることを示した。
提案手法は, 性能を著しく向上させ, 限られたデータ構造におけるモデルバイアスを低減させる。
論文 参考訳(メタデータ) (2021-06-30T19:22:46Z) - Re-TACRED: Addressing Shortcomings of the TACRED Dataset [5.820381428297218]
TACREDは、最大かつ最も広く使われている文レベルの関係抽出データセットの1つである。
このデータセットを用いて評価された提案モデルは、新しい最先端のパフォーマンスを一貫して設定する。
しかし、彼らはまだ大規模なテキストコーポラで外部の知識と教師なしの事前訓練を利用しながら大きなエラー率を示しています。
論文 参考訳(メタデータ) (2021-04-16T22:55:11Z) - Better Aggregation in Test-Time Augmentation [4.259219671110274]
テスト時間拡張(Test-time augmentation)は、テスト入力の変換されたバージョン間での予測の集約である。
重要な発見は、テストタイムの増大が正確性を大幅に向上させたとしても、多くの正しい予測を誤った予測に変更できるということである。
本稿では,テスト時間増強のための学習に基づく手法を提案する。
論文 参考訳(メタデータ) (2020-11-23T00:46:00Z) - Evaluating Prediction-Time Batch Normalization for Robustness under
Covariate Shift [81.74795324629712]
我々は予測時間バッチ正規化と呼び、共変量シフト時のモデル精度とキャリブレーションを大幅に改善する。
予測時間バッチ正規化は、既存の最先端アプローチに相補的な利点をもたらし、ロバスト性を向上させることを示します。
この手法は、事前トレーニングと併用して使用すると、さまざまな結果が得られるが、より自然なタイプのデータセットシフトでは、パフォーマンスが良くないようだ。
論文 参考訳(メタデータ) (2020-06-19T05:08:43Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。