論文の概要: Relevance Feedback with Brain Signals
- arxiv url: http://arxiv.org/abs/2312.05669v1
- Date: Sat, 9 Dec 2023 20:19:16 GMT
- ステータス: 処理完了
- システム内更新日: 2023-12-12 19:23:05.003369
- Title: Relevance Feedback with Brain Signals
- Title(参考訳): 脳信号による関連フィードバック
- Authors: Ziyi Ye, Xiaohui Xie, Qingyao Ai, Yiqun Liu, Zhihong Wang, Weihang Su,
Min Zhang
- Abstract要約: 本稿では,BCIに基づく関連性フィードバックと疑似関連性信号と暗黙の信号を組み合わせて文書の再ランク付け性能を向上させる新しいフレームワークを提案する。
脳信号は、特にフィードバックの欠如やうるさいという暗黙の信号がある場合、いくつかの難解な検索シナリオで特によく機能する。
- 参考スコア(独自算出の注目度): 29.97518045855005
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The Relevance Feedback (RF) process relies on accurate and real-time
relevance estimation of feedback documents to improve retrieval performance.
Since collecting explicit relevance annotations imposes an extra burden on the
user, extensive studies have explored using pseudo-relevance signals and
implicit feedback signals as substitutes. However, such signals are indirect
indicators of relevance and suffer from complex search scenarios where user
interactions are absent or biased.
Recently, the advances in portable and high-precision brain-computer
interface (BCI) devices have shown the possibility to monitor user's brain
activities during search process. Brain signals can directly reflect user's
psychological responses to search results and thus it can act as additional and
unbiased RF signals. To explore the effectiveness of brain signals in the
context of RF, we propose a novel RF framework that combines BCI-based
relevance feedback with pseudo-relevance signals and implicit signals to
improve the performance of document re-ranking. The experimental results on the
user study dataset show that incorporating brain signals leads to significant
performance improvement in our RF framework. Besides, we observe that brain
signals perform particularly well in several hard search scenarios, especially
when implicit signals as feedback are missing or noisy. This reveals when and
how to exploit brain signals in the context of RF.
- Abstract(参考訳): RF(Relevance Feedback)プロセスは、フィードバック文書の正確かつリアルタイムな関連度推定に頼り、検索性能を向上させる。
明示的関連アノテーションの収集はユーザにとって余計な負担となるため,疑似関連信号と暗黙的フィードバック信号を代替手段として使用することを検討した。
しかし、そのような信号は関連性の間接的な指標であり、ユーザインタラクションが欠如している、あるいはバイアスのある複雑な検索シナリオに悩まされる。
近年,携帯型・高精度脳コンピュータインタフェース(BCI)機器の進歩により,検索過程におけるユーザの脳活動の監視が可能となった。
脳信号は検索結果に対するユーザーの心理的反応を直接反映できるため、追加のRF信号として機能する。
rfの文脈における脳信号の有効性を検討するために,bciに基づく関連フィードバックと疑似関連信号と暗黙的信号を組み合わせた新しいrfフレームワークを提案する。
ユーザスタディデータセットの実験結果から,脳波を取り入れることで,RFフレームワークの性能が大幅に向上することが示された。
さらに,脳の信号は,特に暗黙の信号が欠落したり,騒々しい場合に,いくつかの難解な検索シナリオにおいて特に良好に機能することが観察された。
これは、RFの文脈で脳信号を利用するタイミングと方法を明らかにする。
関連論文リスト
- Query Augmentation by Decoding Semantics from Brain Signals [61.89860975682576]
本稿では,脳信号からデコードされた意味情報を組み込んでクエリを強化するBrain-Augを提案する。
fMRIデータセットの実験的結果は、Brain-Augが意味的により正確なクエリを生成することを示している。
論文 参考訳(メタデータ) (2024-02-24T04:08:51Z) - Data Contamination Issues in Brain-to-Text Decoding [37.863706557699146]
非侵襲的な認知信号を自然言語にデコードすることは、長い間、実用的な脳-コンピュータインターフェース(BCI)の構築の目標であった。
最近の大きなマイルストーンは、機能的磁気共鳴イメージング(fMRI)や脳波(EEG)といった認知信号を、オープンな語彙設定の下でテキストに復号することに成功している。
認知信号復号タスクにおいて、トレーニング、検証、テストのためのデータセットを分割する方法はまだ議論の余地がある。
論文 参考訳(メタデータ) (2023-12-18T07:22:39Z) - Data-Driven Blind Synchronization and Interference Rejection for Digital
Communication Signals [98.95383921866096]
本研究では,データ駆動型深層学習手法の可能性について検討した。
本研究では,高分解能時間構造(非定常性)の取得が性能向上につながることを示す。
既製のNNと古典的検出と干渉除去の両方で改善可能なドメインインフォームドニューラルネットワーク(NN)の設計を提案する。
論文 参考訳(メタデータ) (2022-09-11T14:10:37Z) - Unsupervised Learning for Human Sensing Using Radio Signals [29.118868792782937]
本稿では,RF信号に対するRGBに基づく教師なし表現学習の実現可能性について検討する。
画像やビデオから教師なし表現学習を行う主要な手法としてコントラスト学習が登場したが、RF信号を用いた人体検知に適用した場合、そのような手法は性能が劣っていることを示す。
対照的に、予測的教師なし学習法は、複数の下流RFベースのセンシングタスクに使用できる高品質な表現を学習する。
論文 参考訳(メタデータ) (2022-07-06T00:28:18Z) - Enhancing Affective Representations of Music-Induced EEG through
Multimodal Supervision and latent Domain Adaptation [34.726185927120355]
脳波の重み付けとして音楽信号を用い,その意味的対応を共通の表現空間に投影することを目的としている。
我々は、LSTMに基づくアテンションモデルと、音楽タギングのための事前訓練されたモデルを組み合わせたバイモーダル・フレームワークと、その2つのモードの分布を整列するリバース・ドメイン・ディミネータを併用して、バイモーダル・フレームワークを利用する。
脳波入力クエリに関連音楽サンプルを提供することにより、モダリティのいずれからも、間接的に、教師付き予測を行うことで、感情認識に利用することができる。
論文 参考訳(メタデータ) (2022-02-20T07:32:12Z) - Deep Impulse Responses: Estimating and Parameterizing Filters with Deep
Networks [76.830358429947]
高雑音および地中設定におけるインパルス応答推定は難しい問題である。
本稿では,ニューラル表現学習の最近の進歩に基づいて,インパルス応答のパラメータ化と推定を行う新しいフレームワークを提案する。
論文 参考訳(メタデータ) (2022-02-07T18:57:23Z) - Learning shared neural manifolds from multi-subject FMRI data [13.093635609349874]
MRMD-AEmaniと呼ばれる,複数の被験者から共通の埋め込みを実験で学習するニューラルネットワークを提案する。
学習した共通空間は、テンポラル多様体(トレーニング中に見えない新しい点をマッピングできる)を表し、目に見えない時間点の刺激特徴の分類を改善する。
このフレームワークは、将来的には脳-コンピュータインタフェース(BCI)トレーニングなど、多くのダウンストリームアプリケーションに応用できると考えています。
論文 参考訳(メタデータ) (2021-12-22T23:08:39Z) - EEGminer: Discovering Interpretable Features of Brain Activity with
Learnable Filters [72.19032452642728]
本稿では,学習可能なフィルタと事前決定された特徴抽出モジュールからなる新しい識別可能なEEGデコーディングパイプラインを提案する。
我々は,SEEDデータセットおよび前例のない大きさの新たな脳波データセット上で,脳波信号からの感情認識に向けたモデルの有用性を実証する。
発見された特徴は、以前の神経科学の研究と一致し、音楽聴取中の左右の時間領域間の機能的接続プロファイルの顕著な相違など、新たな洞察を提供する。
論文 参考訳(メタデータ) (2021-10-19T14:22:04Z) - Emotional EEG Classification using Connectivity Features and
Convolutional Neural Networks [81.74442855155843]
CNNと脳のつながりを利用した新しい分類システムを導入し,その効果を感情映像分類により検証する。
対象映像の感情的特性に関連する脳接続の集中度は分類性能と相関する。
論文 参考訳(メタデータ) (2021-01-18T13:28:08Z) - Learning to Combine Top-Down and Bottom-Up Signals in Recurrent Neural
Networks with Attention over Modules [81.1967157385085]
ロバスト知覚はボトムアップ信号とトップダウン信号の両方に依存している。
ボトムアップ信号とトップダウン信号が動的に結合されるディープリカレントニューラルネットワークアーキテクチャについて検討する。
言語モデリング、逐次画像分類、映像予測、強化学習における様々なベンチマークにおいて、遠方方向情報フローが強いベースライン上で結果を改善することを実証する。
論文 参考訳(メタデータ) (2020-06-30T17:26:19Z) - Harvesting Ambient RF for Presence Detection Through Deep Learning [12.535149305258171]
本稿では,深層学習による人的存在検出における環境無線周波数(RF)信号の利用について検討する。
WiFi信号を例として,受信機で取得したチャネル状態情報(CSI)が伝搬環境に関する豊富な情報を含んでいることを示す。
畳み込みニューラルネットワーク(CNN)は、大きさと位相情報の両方を適切に訓練し、信頼性の高い存在検出を実現するように設計されている。
論文 参考訳(メタデータ) (2020-02-13T20:35:55Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。