論文の概要: LITcoder: A General-Purpose Library for Building and Comparing Encoding Models
- arxiv url: http://arxiv.org/abs/2509.09152v1
- Date: Thu, 11 Sep 2025 05:14:14 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-12 16:52:24.233048
- Title: LITcoder: A General-Purpose Library for Building and Comparing Encoding Models
- Title(参考訳): LITcoder: エンコーディングモデルの構築と比較のための汎用ライブラリ
- Authors: Taha Binhuraib, Ruimin Gao, Anna A. Ivanova,
- Abstract要約: LITcoderは、ニューラルエンコーディングモデルの構築とベンチマークのためのオープンソースライブラリである。
連続刺激を脳データと整合させ、刺激を表現的特徴に変換し、それらの特徴を脳データにマッピングし、結果として得られるモデルの予測性能を評価するためのツールを提供する。
- 参考スコア(独自算出の注目度): 2.405239115724098
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We introduce LITcoder, an open-source library for building and benchmarking neural encoding models. Designed as a flexible backend, LITcoder provides standardized tools for aligning continuous stimuli (e.g., text and speech) with brain data, transforming stimuli into representational features, mapping those features onto brain data, and evaluating the predictive performance of the resulting model on held-out data. The library implements a modular pipeline covering a wide array of methodological design choices, so researchers can easily compose, compare, and extend encoding models without reinventing core infrastructure. Such choices include brain datasets, brain regions, stimulus feature (both neural-net-based and control, such as word rate), downsampling approaches, and many others. In addition, the library provides built-in logging, plotting, and seamless integration with experiment tracking platforms such as Weights & Biases (W&B). We demonstrate the scalability and versatility of our framework by fitting a range of encoding models to three story listening datasets: LeBel et al. (2023), Narratives, and Little Prince. We also explore the methodological choices critical for building encoding models for continuous fMRI data, illustrating the importance of accounting for all tokens in a TR scan (as opposed to just taking the last one, even when contextualized), incorporating hemodynamic lag effects, using train-test splits that minimize information leakage, and accounting for head motion effects on encoding model predictivity. Overall, LITcoder lowers technical barriers to encoding model implementation, facilitates systematic comparisons across models and datasets, fosters methodological rigor, and accelerates the development of high-quality high-performance predictive models of brain activity. Project page: https://litcoder-brain.github.io
- Abstract(参考訳): ニューラルエンコーディングモデルの構築とベンチマークを行うオープンソースライブラリであるLITcoderを紹介する。
フレキシブルバックエンドとして設計されたLITcoderは、継続的な刺激(例えば、テキストや音声)を脳データと整合させ、刺激を表現的特徴に変換し、それらの特徴を脳データにマッピングし、得られたモデルの予測性能を評価するための標準化されたツールを提供する。
このライブラリは、幅広い方法論的な設計選択をカバーするモジュラーパイプラインを実装しているため、研究者はコアインフラストラクチャを再発明することなく、簡単に構成、比較、エンコーディングモデルを拡張できる。
このような選択には、脳データセット、脳領域、刺激機能(ワードレートのようなニューラルネットベースとコントロールの両方)、ダウンサンプリングアプローチなどが含まれる。
さらに、このライブラリは、Weights & Biases (W&B)のような実験追跡プラットフォームとシームレスに統合された、組み込みロギング、プロットを提供する。
LeBel et al (2023)、Narratives、Little Princeの3つのストーリーリスニングデータセットに、さまざまなエンコーディングモデルを適用することで、フレームワークのスケーラビリティと汎用性を実証します。
また,連続fMRIデータのための符号化モデルを構築する上で重要な手法選択,TRスキャンにおけるすべてのトークンの会計の重要性(文脈化されても最後のトークンを取るのとは対照的に),血行動態のラグ効果を取り入れた手法選択,情報漏洩を最小限に抑えるトレイン-テストスプリットの利用,および符号化モデル予測性に対するヘッドモーションの影響について検討した。
全体として、LITcoderはモデル実装の符号化に対する技術的な障壁を低くし、モデルとデータセット間の体系的な比較を促進し、方法論的厳密性を育み、高品質な高性能な脳活動予測モデルの開発を促進する。
プロジェクトページ: https://litcoder-brain.github.io
関連論文リスト
- LEMUR Neural Network Dataset: Towards Seamless AutoML [34.04248949660201]
LEMURは、さまざまなアーキテクチャのためのよく構造化されたコードを持つニューラルネットワークモデルのオープンソースデータセットである。
LEMURは、一貫性を維持しながら、新しいデータセットとモデルへのシームレスな拡張を可能にする。
LEMUR VR拡張は、バーチャルリアリティーにおけるモデルのシームレスなデプロイを可能にし、リソース制約のあるデバイス上でのパフォーマンスを最適化する。
論文 参考訳(メタデータ) (2025-04-14T09:08:00Z) - Text to Band Gap: Pre-trained Language Models as Encoders for Semiconductor Band Gap Prediction [5.812284760539713]
半導体材料のバンドギャップを予測するための変換器ベース言語モデルであるRoBERTa,T5,LLaMAについて検討する。
本稿では,一貫したテンプレートにおける重要な特徴を組み合わせた構造化文字列と,ChatGPT APIを用いて生成した自然言語ナラティブの2つの形式で資料記述を構築する。
以上の結果から,言語モデル,特にデコーダのみのLLaMA-3アーキテクチャは,予測精度と柔軟性において従来の手法よりも優れていることがわかった。
論文 参考訳(メタデータ) (2025-01-07T00:56:26Z) - A multimodal LLM for the non-invasive decoding of spoken text from brain recordings [0.4187344935012482]
fMRI信号から音声テキストを復号するためのマルチモーダルLLMを提案する。
提案アーキテクチャは, (i) 特定のトランスフォーマーから派生したエンコーダ上に構築され, エンコーダに付加された埋め込み層と, 最先端のアテンション機構が組み込まれている。
fMRIと会話信号が同期的に記録される、人間-ロボット相互作用と人間-ロボット相互作用のセットからなるコーパス上で行われたベンチマーク。
論文 参考訳(メタデータ) (2024-09-29T14:03:39Z) - The Languini Kitchen: Enabling Language Modelling Research at Different
Scales of Compute [66.84421705029624]
本稿では,アクセル時間で測定された等価計算に基づくモデル比較を可能にする実験的プロトコルを提案する。
私たちは、既存の学術的ベンチマークを上回り、品質、多様性、文書の長さで上回る、大規模で多様で高品質な書籍データセットを前処理します。
この研究は、GPT-2アーキテクチャから派生したフィードフォワードモデルと、10倍のスループットを持つ新しいLSTMの形式でのリカレントモデルという2つのベースラインモデルも提供する。
論文 参考訳(メタデータ) (2023-09-20T10:31:17Z) - CodeGen2: Lessons for Training LLMs on Programming and Natural Languages [116.74407069443895]
我々はエンコーダとデコーダベースのモデルを単一のプレフィックスLMに統一する。
学習方法は,「フリーランチ」仮説の主張を考察する。
データ配信においては,混合分布と多言語学習がモデル性能に及ぼす影響について検討した。
論文 参考訳(メタデータ) (2023-05-03T17:55:25Z) - CorpusBrain: Pre-train a Generative Retrieval Model for
Knowledge-Intensive Language Tasks [62.22920673080208]
単一ステップ生成モデルは、検索プロセスを劇的に単純化し、エンドツーエンドで最適化することができる。
我々は、事前学習された生成検索モデルをCorpsBrainと名付け、コーパスに関する全ての情報が、追加のインデックスを構築することなく、そのパラメータにエンコードされる。
論文 参考訳(メタデータ) (2022-08-16T10:22:49Z) - Gone Fishing: Neural Active Learning with Fisher Embeddings [55.08537975896764]
ディープニューラルネットワークと互換性のあるアクティブな学習アルゴリズムの必要性が高まっている。
本稿では,ニューラルネットワークのための抽出可能かつ高性能な能動学習アルゴリズムBAITを紹介する。
論文 参考訳(メタデータ) (2021-06-17T17:26:31Z) - Modeling Shared Responses in Neuroimaging Studies through MultiView ICA [94.31804763196116]
被験者の大規模なコホートを含むグループ研究は、脳機能組織に関する一般的な結論を引き出す上で重要である。
グループ研究のための新しい多視点独立成分分析モデルを提案し、各被験者のデータを共有独立音源と雑音の線形結合としてモデル化する。
まず、fMRIデータを用いて、被験者間の共通音源の同定における感度の向上を示す。
論文 参考訳(メタデータ) (2020-06-11T17:29:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。