論文の概要: Affect-aware Cross-Domain Recommendation for Art Therapy via Music Preference Elicitation
- arxiv url: http://arxiv.org/abs/2507.21120v1
- Date: Fri, 18 Jul 2025 09:53:03 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-03 20:19:02.898352
- Title: Affect-aware Cross-Domain Recommendation for Art Therapy via Music Preference Elicitation
- Title(参考訳): 音楽選好励磁による芸術的治療に対する効果的なクロスドメイン勧告
- Authors: Bereket A. Yilma, Luis A. Leiva,
- Abstract要約: 本稿では,音楽による嗜好評価に基づくアート・セラピー(AT)のクロスドメイン・レコメンデーション手法のファミリーを提案する。
200人の利用者を対象にした大規模な調査では、音楽による嗜好誘発の有効性が示され、古典的な視覚のみの選好アプローチよりも優れていた。
- 参考スコア(独自算出の注目度): 7.941906315308261
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Art Therapy (AT) is an established practice that facilitates emotional processing and recovery through creative expression. Recently, Visual Art Recommender Systems (VA RecSys) have emerged to support AT, demonstrating their potential by personalizing therapeutic artwork recommendations. Nonetheless, current VA RecSys rely on visual stimuli for user modeling, limiting their ability to capture the full spectrum of emotional responses during preference elicitation. Previous studies have shown that music stimuli elicit unique affective reflections, presenting an opportunity for cross-domain recommendation (CDR) to enhance personalization in AT. Since CDR has not yet been explored in this context, we propose a family of CDR methods for AT based on music-driven preference elicitation. A large-scale study with 200 users demonstrates the efficacy of music-driven preference elicitation, outperforming the classic visual-only elicitation approach. Our source code, data, and models are available at https://github.com/ArtAICare/Affect-aware-CDR
- Abstract(参考訳): アートセラピー(アートセラピー)は、創造的な表現を通じて感情的な処理と回復を促進する確立した実践である。
近年,ビジュアルアートレコメンダシステム (VA RecSys) がATをサポートするようになり,その可能性を示すために,治療的アートレコメンデーションをパーソナライズしている。
それにもかかわらず、現在のVA RecSysは、ユーザのモデリングに視覚刺激を頼り、嗜好誘発中の感情反応の全スペクトルをキャプチャする能力を制限している。
これまでの研究では、音楽刺激は独特な感情的反射を引き起こすことが示されており、ATにおけるパーソナライゼーションを高めるためにクロスドメインレコメンデーション(CDR)を提示している。
この文脈ではまだCDRが検討されていないため,音楽主導の選好に基づくATのためのCDR手法のファミリーを提案する。
200人の利用者を対象にした大規模な調査では、音楽による嗜好誘発の有効性が示され、古典的な視覚のみの選好アプローチよりも優れていた。
ソースコード、データ、モデルはhttps://github.com/ArtAICare/Affect-aware-CDRで利用可能です。
関連論文リスト
- Enhancing Audiovisual Speech Recognition through Bifocal Preference Optimization [59.1277150358203]
実世界のビデオの音声認識精度を向上させるために、選好最適化手法を提案する。
まず、AV-ASRで発生した一般的なエラーを2つの焦点からシミュレーションすることで、嗜好データを生成する。
次に,AV-ASRモデルを改善するために,入力側と出力側の両方を優先してBPO-AVASRを提案する。
論文 参考訳(メタデータ) (2024-12-26T00:26:45Z) - Bridging Paintings and Music -- Exploring Emotion based Music Generation through Paintings [10.302353984541497]
本研究では,視覚芸術で表現される感情に共鳴する音楽を生成するモデルを開発した。
コーディネートアートと音楽データの不足に対処するため、私たちはEmotion Painting Musicデータセットをキュレートした。
我々の2段階のフレームワークは、イメージを感情的内容のテキスト記述に変換し、これらの記述を音楽に変換することで、最小限のデータによる効率的な学習を容易にする。
論文 参考訳(メタデータ) (2024-09-12T08:19:25Z) - Transformers Meet ACT-R: Repeat-Aware and Sequential Listening Session Recommendation [12.295794664393368]
PISAは,音楽ストリーミングサービスのセッションレベルのシーケンシャルレコメンデーションシステムである。
PISAは、リスニングセッションとユーザの埋め込み表現を学習するTransformerアーキテクチャを採用している。
我々は、Last.fmの公開リスニングデータとDeezerのプロプライエタリデータの両方を用いて、PISAの実証的妥当性を示す。
論文 参考訳(メタデータ) (2024-08-29T14:44:12Z) - Music Emotion Prediction Using Recurrent Neural Networks [8.867897390286815]
本研究は,聴取者の感情状態に合うように音楽を調整することで,音楽レコメンデーションシステムを強化し,治療介入を支援することを目的とする。
ラッセルの感情クアドラントを用いて、音楽を4つの異なる感情領域に分類し、これらのカテゴリーを正確に予測できるモデルを開発する。
我々のアプローチは、Librosaを使って包括的なオーディオ機能を抽出し、標準RNN、双方向RNN、Long Short-Term Memory(LSTM)ネットワークなど、さまざまなリカレントニューラルネットワークアーキテクチャを適用します。
論文 参考訳(メタデータ) (2024-05-10T18:03:20Z) - VILA: Learning Image Aesthetics from User Comments with Vision-Language
Pretraining [53.470662123170555]
ユーザからのコメントから画像美学を学習し、マルチモーダルな美学表現を学習するための視覚言語事前学習手法を提案する。
具体的には、コントラスト的および生成的目的を用いて、画像テキストエンコーダ-デコーダモデルを事前訓練し、人間のラベルなしでリッチで汎用的な美的意味学を学習する。
以上の結果から,AVA-Captionsデータセットを用いた画像の美的字幕化において,事前学習した美的視覚言語モデルよりも優れていたことが示唆された。
論文 参考訳(メタデータ) (2023-03-24T23:57:28Z) - AVATAR: Unconstrained Audiovisual Speech Recognition [75.17253531162608]
本稿では,ASR TrAnsformeR (AVATAR) を用いて,スペクトルとフルフレームRGBからエンドツーエンドにトレーニングした新しいシーケンス・ツー・シーケンスASR TrAnsformeRを提案する。
本稿では,ハウ2 AV-ASR ベンチマークにおける視覚的モダリティの寄与を,特にシミュレートノイズの存在下で実証する。
また、我々はAV-ASRのための新しい実世界テストベッドVisSpeechを作成し、挑戦的な音声条件下での視覚的モダリティの寄与を実証した。
論文 参考訳(メタデータ) (2022-06-15T17:33:19Z) - Stimuli-Aware Visual Emotion Analysis [75.68305830514007]
本稿では,刺激選択,特徴抽出,感情予測の3段階からなる刺激認識型視覚感情分析(VEA)手法を提案する。
我々の知る限りでは、エンド・ツー・エンドのネットワークでVEAに刺激選択プロセスを導入するのは初めてです。
実験により、提案手法は、4つの公的な視覚的感情データセットに対する最先端のアプローチよりも一貫して優れていることが示された。
論文 参考訳(メタデータ) (2021-09-04T08:14:52Z) - Personalised Visual Art Recommendation by Learning Latent Semantic
Representations [0.0]
本稿では,視覚芸術のパーソナライズドレコメンデーションへのアプローチを紹介する。
我々のLDAモデルは、説明可能なレコメンデーションを提供しながら、絵画間の不可避な意味関係を明らかにすることに成功している。
論文 参考訳(メタデータ) (2020-07-24T14:50:10Z) - Does Visual Self-Supervision Improve Learning of Speech Representations
for Emotion Recognition? [63.564385139097624]
本研究は,音声表現の学習を指導するために,顔再構成による視覚的自己監督について検討する。
提案した視覚的・音声的自己監督のマルチタスクの組み合わせは,よりリッチな特徴を学習する上で有益であることを示す。
学習した音声表現を、離散的感情認識、連続的感情認識、自動音声認識のために評価する。
論文 参考訳(メタデータ) (2020-05-04T11:33:40Z) - How to Teach DNNs to Pay Attention to the Visual Modality in Speech
Recognition [10.74796391075403]
本研究では、AV Alignの内部動作を調査し、オーディオ・視覚アライメントパターンを可視化する。
AV Alignは、一般に単調なパターンで、TD-TIMITのフレームレベルで、音声の音響的および視覚的表現を調整することを学習している。
本稿では,視覚的表現から唇関連行動単位を予測する正規化手法を提案する。
論文 参考訳(メタデータ) (2020-04-17T13:59:19Z) - Multi-Modal Music Information Retrieval: Augmenting Audio-Analysis with
Visual Computing for Improved Music Video Analysis [91.3755431537592]
この論文は、音声分析とコンピュータビジョンを組み合わせて、マルチモーダルの観点から音楽情報検索(MIR)タスクにアプローチする。
本研究の主な仮説は、ジャンルやテーマなど特定の表現的カテゴリーを視覚的内容のみに基づいて認識できるという観察に基づいている。
実験は、3つのMIRタスクに対して行われ、アーティスト識別、音楽ジェネア分類、クロスジェネア分類を行う。
論文 参考訳(メタデータ) (2020-02-01T17:57:14Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。