論文の概要: Towards Interpretability in Audio and Visual Affective Machine Learning:
A Review
- arxiv url: http://arxiv.org/abs/2306.08933v1
- Date: Thu, 15 Jun 2023 08:16:01 GMT
- ステータス: 処理完了
- システム内更新日: 2023-06-16 16:04:45.869978
- Title: Towards Interpretability in Audio and Visual Affective Machine Learning:
A Review
- Title(参考訳): 音声・視覚影響機械学習における解釈可能性に向けて : レビュー
- Authors: David S. Johnson, Olya Hakobyan, and Hanna Drimalla
- Abstract要約: 我々は、感情的機械学習の文脈における解釈可能性の使用について、構造化された文献レビューを行う。
以上の結果から,過去5年間の解釈可能性手法の出現が示唆された。
現在、使用法は、使用方法の範囲、評価の深さ、使用事例の検討に限られている。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Machine learning is frequently used in affective computing, but presents
challenges due the opacity of state-of-the-art machine learning methods.
Because of the impact affective machine learning systems may have on an
individual's life, it is important that models be made transparent to detect
and mitigate biased decision making. In this regard, affective machine learning
could benefit from the recent advancements in explainable artificial
intelligence (XAI) research. We perform a structured literature review to
examine the use of interpretability in the context of affective machine
learning. We focus on studies using audio, visual, or audiovisual data for
model training and identified 29 research articles. Our findings show an
emergence of the use of interpretability methods in the last five years.
However, their use is currently limited regarding the range of methods used,
the depth of evaluations, and the consideration of use-cases. We outline the
main gaps in the research and provide recommendations for researchers that aim
to implement interpretable methods for affective machine learning.
- Abstract(参考訳): 機械学習は感情コンピューティングでよく使用されるが、最先端の機械学習手法が不透明であることによる課題が提示される。
機械学習システムが個人の生活に影響を及ぼす可能性があるため、偏りのある意思決定を検出し軽減するためにモデルを透明にすることが重要である。
この点において、感情的な機械学習は、最近の説明可能な人工知能(XAI)研究の進歩の恩恵を受ける可能性がある。
情緒的機械学習の文脈における解釈可能性の利用を検討するため,構造化文献レビューを行う。
我々は,モデルトレーニングのための音声,視覚,視聴覚データを用いた研究に焦点を当て,29の論文を同定した。
以上の結果から,過去5年間の解釈可能性手法の出現が示唆された。
しかし、現在、使用する方法の範囲、評価の深さ、ユースケースの考慮についての使用は限られている。
本研究の主なギャップを概説し、感情的な機械学習のための解釈可能な手法の実装を目指す研究者に推奨する。
関連論文リスト
- Differential contributions of machine learning and statistical analysis to language and cognitive sciences [27.152245569974678]
本研究では、Buckeye Speech Corpusを用いて、機械学習と統計分析がデータ駆動型研究にどのように適用されているかを説明する。
それぞれのアプローチの理論的相違、実装手順、ユニークな目的を実証する。
この研究は、対象語に対する文脈的影響を測定する新しい尺度である意味的関連性が、発話中の単語の持続時間を理解するのにどのように貢献するかを強調した。
論文 参考訳(メタデータ) (2024-04-22T10:06:21Z) - Self-Explainable Affordance Learning with Embodied Caption [63.88435741872204]
具体的キャプションを具現化したSelf-Explainable Affordance Learning (SEA)を紹介する。
SEAは、ロボットが意図を明確に表現し、説明可能な視覚言語キャプションと視覚能力学習のギャップを埋めることを可能にする。
本稿では, 簡便かつ効率的な方法で, 空き地と自己説明を効果的に組み合わせた新しいモデルを提案する。
論文 参考訳(メタデータ) (2024-04-08T15:22:38Z) - Application-Driven Innovation in Machine Learning [56.85396167616353]
機械学習におけるアプリケーション駆動研究のパラダイムについて述べる。
このアプローチがメソッド駆動の作業と生産的に相乗効果を示す。
このようなメリットにもかかわらず、マシンラーニングにおけるレビュー、採用、教育のプラクティスが、アプリケーション主導のイノベーションを後押しすることが多いことに気付きます。
論文 参考訳(メタデータ) (2024-03-26T04:59:27Z) - Explainability in Machine Learning: a Pedagogical Perspective [9.393988089692947]
我々は、学習過程を構造化して、学生や研究者に機械学習の知識をより多く与える方法について、教育学的視点を提供する。
各種不透明かつ透明な機械学習モデルの利点と欠点について論じる。
我々はまた、学生がどんな機械学習アプリケーションと並行して説明可能性を使うことを学ぶのを助けるために、潜在的な課題を構築する方法についても論じる。
論文 参考訳(メタデータ) (2022-02-21T16:15:57Z) - An Interactive Visualization Tool for Understanding Active Learning [12.345164513513671]
本稿では,能動学習の学習過程を明らかにするための対話型可視化ツールを提案する。
このツールは、興味深いデータポイントのサンプルを選択し、異なるクエリ段階でそれらの予測値がどのように変化するかを確認し、アクティブな学習がいつどのように機能するかをよりよく理解することができる。
論文 参考訳(メタデータ) (2021-11-09T03:33:26Z) - Human-Robot Collaboration and Machine Learning: A Systematic Review of
Recent Research [69.48907856390834]
人間ロボットコラボレーション(Human-robot collaboration、HRC)とは、人間とロボットの相互作用を探索する手法である。
本稿では,HRCの文脈における機械学習技術の利用に関する詳細な文献レビューを提案する。
論文 参考訳(メタデータ) (2021-10-14T15:14:33Z) - Ten Quick Tips for Deep Learning in Biology [116.78436313026478]
機械学習は、データのパターンを認識し、予測モデリングに使用するアルゴリズムの開発と応用に関係している。
ディープラーニングは、独自の機械学習のサブフィールドになっている。
生物学的研究の文脈において、ディープラーニングは高次元の生物学的データから新しい洞察を導き出すためにますます使われてきた。
論文 参考訳(メタデータ) (2021-05-29T21:02:44Z) - Individual Explanations in Machine Learning Models: A Survey for
Practitioners [69.02688684221265]
社会的関連性の高い領域の決定に影響を与える洗練された統計モデルの使用が増加しています。
多くの政府、機関、企業は、アウトプットが人間の解釈可能な方法で説明しにくいため、採用に消極的です。
近年,機械学習モデルに解釈可能な説明を提供する方法として,学術文献が多数提案されている。
論文 参考訳(メタデータ) (2021-04-09T01:46:34Z) - Knowledge as Invariance -- History and Perspectives of
Knowledge-augmented Machine Learning [69.99522650448213]
機械学習の研究は転換点にある。
研究の関心は、高度にパラメータ化されたモデルのパフォーマンス向上から、非常に具体的なタスクへとシフトしている。
このホワイトペーパーは、機械学習研究におけるこの新興分野の紹介と議論を提供する。
論文 参考訳(メタデータ) (2020-12-21T15:07:19Z) - Ethical behavior in humans and machines -- Evaluating training data
quality for beneficial machine learning [0.0]
本研究では、教師付き機械学習アプリケーションのためのデータ品質の新しい次元について述べる。
本研究の目的は、その行動の倫理的評価に基づいて、トレーニングデータをどのように選択できるかを説明することである。
論文 参考訳(メタデータ) (2020-08-26T09:48:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。