論文の概要: How do machines learn? Evaluating the AIcon2abs method
- arxiv url: http://arxiv.org/abs/2401.07386v1
- Date: Sun, 14 Jan 2024 22:40:58 GMT
- ステータス: 処理完了
- システム内更新日: 2024-01-17 18:33:12.602084
- Title: How do machines learn? Evaluating the AIcon2abs method
- Title(参考訳): マシンはどのように学習するか?
AIcon2abs法の評価
- Authors: Rubens Lacerda Queiroz, Cabral Lima, Fabio Ferrentini Sampaio,
Priscila Machado Vieira Lima
- Abstract要約: 本稿では,機械学習に対する一般大衆の認識を可能にするAIcon2absの評価を行った。
WiSARDモデルは、トレーニングと分類のためにインターネット接続を必要としない。
AIcon2abs法の有効性の評価は,作業負荷が約6時間である遠隔コースの評価を通じて行った。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This paper evaluates AIcon2abs (Queiroz et al., 2021), a recently proposed
method that enables awareness among the general public on machine learning.
Such is possible due to the use of WiSARD, an easily understandable machine
learning mechanism, thus requiring little effort and no technical background
from the target users. WiSARD is adherent to digital computing; training
consists of writing to RAM-type memories, and classification consists of
reading from these memories. The model enables easy visualization and
understanding of training and classification tasks' internal realization
through ludic activities. Furthermore, the WiSARD model does not require an
Internet connection for training and classification, and it can learn from a
few or one example. This feature makes it easier to observe the machine,
increasing its accuracy on a particular task with each new example used. WiSARD
can also create "mental images" of what it has learned so far, evidencing key
features pertaining to a given class. The assessment of the AIcon2abs method's
effectiveness was conducted through the evaluation of a remote course with a
workload of approximately 6 hours. It was completed by thirty-four Brazilian
subjects: 5 children between 8 and 11 years old; 5 adolescents between 12 and
17 years old; and 24 adults between 21 and 72 years old. Data analysis adopted
a hybrid approach. AIcon2abs was well-rated by almost 100% of the research
subjects, and the data collected revealed quite satisfactory results concerning
the intended outcomes. This research has been approved by the CEP/HUCFF/FM/UFRJ
Human Research Ethics Committee.
- Abstract(参考訳): 本稿では,最近の提案手法であるaicon2abs(queiroz et al., 2021)について評価する。
これは、容易に理解できる機械学習メカニズムであるWiSARDを使用することで可能であり、ほとんど労力を要せず、ターゲットユーザからの技術的バックグラウンドも必要としない。
WiSARDはデジタルコンピューティングに忠実であり、トレーニングはRAMタイプのメモリへの書き込みから成り、分類はこれらのメモリからの読み込みから成り立っている。
このモデルにより、学習や分類タスクの内部実現を簡単に可視化し、理解することができる。
さらに、WiSARDモデルはトレーニングや分類にインターネット接続を必要としないため、いくつかの例から学ぶことができる。
この機能により、マシンの観察が容易になり、使用する新しい例ごとに特定のタスクの精度が向上する。
WiSARDはこれまでに学んだことの「メンタルイメージ」を作成でき、特定のクラスに関連する重要な特徴を識別できる。
AIcon2abs法の有効性の評価は,作業負荷が約6時間である遠隔コースの評価を通じて行った。
8歳から11歳の子供5人、12歳から17歳の青年5人、21歳から72歳の成人24人であった。
データ分析はハイブリッドアプローチを採用した。
AIcon2absは、研究対象者の約100%によって評価され、収集されたデータは、意図された結果に関して非常に満足な結果を示した。
この研究は、CEP/HUCFF/FM/UFRJ Human Research Ethics Committeeによって承認されている。
関連論文リスト
- Realtime Person Identification via Gait Analysis [1.3260363717086592]
エッジAIデプロイメントとリアルタイム歩行認識に非常に適した4層を有する小型CNNモデルを提案する。
我々のモデルは96.7%の精度で5KBのRAMしか消費せず、起動時間は70msと125mWである。
論文 参考訳(メタデータ) (2024-04-02T18:15:06Z) - Deep Learning-based Spatio Temporal Facial Feature Visual Speech
Recognition [0.0]
パスワードをしゃべりながら、顔認識と個人特有の時間的顔の特徴的動作を併用する代替認証方式を提案する。
提案されたモデルは、業界標準のMIRACL-VC1データセットでテストしたときに96.1%の精度を達成した。
論文 参考訳(メタデータ) (2023-04-30T18:52:29Z) - Contrastive Learning for Cross-Domain Open World Recognition [17.660958043781154]
進化する能力は、知識が製造者によって注入されるものに限定されない貴重な自律エージェントにとって基本的なものである。
新しいクラスをインクリメンタルに含めるのに適した機能空間を学習し、様々な視覚領域にまたがる知識を捉えることができることを示す。
本手法は,学習エピソードごとの効果的な停止基準を付与し,新たな自己ペースしきい値設定戦略を活用する。
論文 参考訳(メタデータ) (2022-03-17T11:23:53Z) - Human-in-the-Loop Disinformation Detection: Stance, Sentiment, or
Something Else? [93.91375268580806]
政治とパンデミックは、機械学習対応の偽ニュース検出アルゴリズムの開発に十分な動機を与えている。
既存の文献は、主に完全自動化されたケースに焦点を当てているが、その結果得られた技術は、軍事応用に必要な様々なトピック、ソース、時間スケールに関する偽情報を確実に検出することはできない。
既に利用可能なアナリストを人間のループとして活用することにより、感情分析、アスペクトベースの感情分析、姿勢検出といった標準的な機械学習技術は、部分的に自動化された偽情報検出システムに使用するためのもっとも有効な方法となる。
論文 参考訳(メタデータ) (2021-11-09T13:30:34Z) - Few-Cost Salient Object Detection with Adversarial-Paced Learning [95.0220555274653]
本稿では,少数のトレーニング画像にのみ手動アノテーションを応用して,効果的なサルエント物体検出モデルを学習することを提案する。
我々は,このタスクを,少額の有能な物体検出とみなし,少数のコストの学習シナリオを促進するために,APL(Adversarialpaced Learning)ベースのフレームワークを提案する。
論文 参考訳(メタデータ) (2021-04-05T14:15:49Z) - Learning task-agnostic representation via toddler-inspired learning [19.478820330574628]
我々は,幼児の行動を通じて,高度に意図的な学習システムからインスピレーションを得た。
幼児の学習手順に触発されて,タスクに依存しない視覚表現を学習し,記憶できる対話型エージェントを設計する。
実験の結果,これらの表現は様々な視覚タスクに拡張可能であることがわかった。
論文 参考訳(メタデータ) (2021-01-27T06:26:56Z) - Personalized Education in the AI Era: What to Expect Next? [76.37000521334585]
パーソナライズ学習の目的は、学習者の強みに合致する効果的な知識獲得トラックをデザインし、目標を達成するために弱みをバイパスすることである。
近年、人工知能(AI)と機械学習(ML)の隆盛は、パーソナライズされた教育を強化するための新しい視点を広げています。
論文 参考訳(メタデータ) (2021-01-19T12:23:32Z) - NavRep: Unsupervised Representations for Reinforcement Learning of Robot
Navigation in Dynamic Human Environments [28.530962677406627]
2つのエンドツーエンドと18の教師なし学習ベースのアーキテクチャをトレーニングし、それらと既存のアプローチを未認識のテストケースで比較します。
その結果,教師なし学習手法はエンドツーエンドの手法と競合することがわかった。
このリリースには、他の論文で記述されたトレーニング条件をエミュレートするように設計されたopenai-gym互換環境も含まれている。
論文 参考訳(メタデータ) (2020-12-08T12:51:14Z) - A robot that counts like a child: a developmental model of counting and
pointing [69.26619423111092]
実物を数えることができる新しい神経ロボティクスモデルを導入する。
このモデルにより,エンボディメントと数値認識の相互作用を調べることができる。
トレーニングされたモデルは、アイテムのセットをカウントすることができ、同時にそれらを指し示します。
論文 参考訳(メタデータ) (2020-08-05T21:06:27Z) - Symbiotic Adversarial Learning for Attribute-based Person Search [86.7506832053208]
本稿では,共生学習の枠組みとして,共生学習の基盤に2つのGANを配置する。
具体的には、2種類の生成的敵ネットワークがトレーニングプロセスを通して協調的に学習する。
論文 参考訳(メタデータ) (2020-07-19T07:24:45Z) - Explainable Active Learning (XAL): An Empirical Study of How Local
Explanations Impact Annotator Experience [76.9910678786031]
本稿では、最近急増している説明可能なAI(XAI)のテクニックをアクティブラーニング環境に導入することにより、説明可能なアクティブラーニング(XAL)の新たなパラダイムを提案する。
本研究は,機械教育のインタフェースとしてのAI説明の利点として,信頼度校正を支援し,リッチな形式の教示フィードバックを可能にすること,モデル判断と認知作業負荷による潜在的な欠点を克服する効果を示す。
論文 参考訳(メタデータ) (2020-01-24T22:52:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。