論文の概要: ImageNomer: developing an fMRI and omics visualization tool to detect
racial bias in functional connectivity
- arxiv url: http://arxiv.org/abs/2302.00767v1
- Date: Wed, 1 Feb 2023 21:32:24 GMT
- ステータス: 処理完了
- システム内更新日: 2023-02-03 16:08:31.231796
- Title: ImageNomer: developing an fMRI and omics visualization tool to detect
racial bias in functional connectivity
- Title(参考訳): ImageNomer:機能接続における人種バイアスを検出するfMRIとオミクス可視化ツールの開発
- Authors: Anton Orlichenko, Grant Daly, Anqi Liu, Hui Shen, Hong-Wen Deng,
Yu-Ping Wang
- Abstract要約: ImageNomerは、被写体レベルとコホートレベルの両方の特徴を検査できる。
PythonバックエンドとVueバックエンドで構築されている。
その結果,性別予測の精度は78%に対して,FC機能は85%の精度でレースを予測できることがわかった。
- 参考スコア(独自算出の注目度): 9.739868471669343
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: It can be difficult to identify trends and perform quality control in large,
high-dimensional fMRI or omics datasets. To remedy this, we develop ImageNomer,
a data visualization and analysis tool that allows inspection of both
subject-level and cohort-level features. The tool allows visualization of
phenotype correlation with functional connectivity (FC), partial connectivity
(PC), dictionary components (PCA and our own method), and genomic data
(single-nucleotide polymorphisms, SNPs). In addition, it allows visualization
of weights from arbitrary ML models. ImageNomer is built with a Python backend
and a Vue frontend. We validate ImageNomer using the Philadelphia
Neurodevelopmental Cohort (PNC) dataset, which contains multitask fMRI and SNP
data of healthy adolescents. Using correlation, greedy selection, or model
weights, we find that a set of 10 FC features can explain 15% of variation in
age, compared to 35% for the full 34,716 feature model. The four most
significant FCs are either between bilateral default mode network (DMN) regions
or spatially proximal subcortical areas. Additionally, we show that whereas
both FC (fMRI) and SNPs (genomic) features can account for 10-15% of
intelligence variation, this predictive ability disappears when controlling for
race. We find that FC features can be used to predict race with 85% accuracy,
compared to 78% accuracy for sex prediction. Using ImageNomer, this work casts
doubt on the possibility of finding unbiased intelligence-related features in
fMRI and SNPs of healthy adolescents.
- Abstract(参考訳): 大規模で高次元のfMRIやオミクスデータセットでトレンドを特定し、品質管理を行うことは困難である。
そこで我々は,主観レベルとコホートレベルの両方の特徴を検査できるデータ可視化解析ツールであるImageNomerを開発した。
このツールは機能接続(FC)、部分接続(PC)、辞書コンポーネント(PCAと我々の方法)、ゲノムデータ(単一ヌクレオチド多型、SNP)との表現型相関の可視化を可能にする。
さらに、任意のmlモデルからの重みの可視化も可能だ。
ImageNomerはPythonバックエンドとVueフロントエンドで構築されている。
健常青年のマルチタスクfMRIとSNPデータを含むフィラデルフィア神経発達コホート(PNC)データセットを用いて画像Nomerを検証する。
相関, 欲求選択, モデルウェイトを用いて, 10 のFC特徴集合が年齢変化の15%を説明できるのに対し, フル34,716特徴モデルでは35%であることがわかった。
4つの重要なfcは、両側デフォルトモードネットワーク(dmn)または空間的に近位皮質下領域の間である。
さらに,fc (fmri) とsnps (genomic) の2つの機能は,知性の変化の10~15%を占めるが,この予測能力は競争制御時に消失することを示した。
その結果,性別予測の精度は78%に対して,FC機能は85%の精度でレースを予測できることがわかった。
ImageNomerを使って、この研究は、健康な青年のfMRIやSNPにおいて、偏見のない知性に関連する特徴を見つける可能性に疑問を投げかける。
関連論文リスト
- Self-Training with Pseudo-Label Scorer for Aspect Sentiment Quad Prediction [54.23208041792073]
Aspect Sentiment Quad Prediction (ASQP) は、与えられたレビューに対して全てのクワッド(アスペクト項、アスペクトカテゴリー、意見項、感情極性)を予測することを目的としている。
ASQPタスクにおける重要な課題はラベル付きデータの不足であり、既存のメソッドのパフォーマンスを制限している。
そこで我々は,擬似ラベルスコアラーを用いた自己学習フレームワークを提案し,レビューと擬似ラベルの一致をスコアラーが評価する。
論文 参考訳(メタデータ) (2024-06-26T05:30:21Z) - Learning Multimodal Volumetric Features for Large-Scale Neuron Tracing [72.45257414889478]
オーバーセグメントニューロン間の接続を予測し,人間の作業量を削減することを目的としている。
最初はFlyTracingという名前のデータセットを構築しました。
本稿では,高密度なボリュームEM画像の埋め込みを生成するための,新しい接続性を考慮したコントラスト学習手法を提案する。
論文 参考訳(メタデータ) (2024-01-05T19:45:12Z) - BOURNE: Bootstrapped Self-supervised Learning Framework for Unified
Graph Anomaly Detection [50.26074811655596]
自己指導型自己学習(BOURNE)に基づく新しい統合グラフ異常検出フレームワークを提案する。
ノードとエッジ間のコンテキスト埋め込みを交換することで、ノードとエッジの異常を相互に検出できる。
BOURNEは、負のサンプリングを必要としないため、大きなグラフを扱う際の効率を高めることができる。
論文 参考訳(メタデータ) (2023-07-28T00:44:57Z) - Learnable Graph Matching: A Practical Paradigm for Data Association [74.28753343714858]
これらの問題に対処するための一般的な学習可能なグラフマッチング法を提案する。
提案手法は,複数のMOTデータセット上での最先端性能を実現する。
画像マッチングでは,一般的な屋内データセットであるScanNetで最先端の手法より優れている。
論文 参考訳(メタデータ) (2023-03-27T17:39:00Z) - AU-aware graph convolutional network for Macro- and Micro-expression
spotting [44.507747407072685]
我々はAUW-GCN(Action-Unit-aWare Graph Convolutional Network)と呼ばれるグラフ畳み込み型ネットワークを提案する。
先行情報を注入し、小さなデータセットの問題に対処するために、AU関連統計データをネットワークにエンコードする。
その結果, 2つのベンチマークデータセットにおいて, ベースライン手法を一貫して向上させ, 新たなSOTA性能を実現することができた。
論文 参考訳(メタデータ) (2023-03-16T07:00:36Z) - Neural Relation Graph: A Unified Framework for Identifying Label Noise
and Outlier Data [44.64190826937705]
本稿では,データのリレーショナルグラフ構造に基づいてラベルエラーや外れ値データを検出するスケーラブルなアルゴリズムを提案する。
また,特徴埋め込み空間におけるデータポイントのコンテキスト情報を提供する可視化ツールも導入した。
提案手法は,検討対象のタスクすべてに対して最先端検出性能を達成し,大規模実世界のデータセットでその有効性を実証する。
論文 参考訳(メタデータ) (2023-01-29T02:09:13Z) - Beyond the Gates of Euclidean Space: Temporal-Discrimination-Fusions and
Attention-based Graph Neural Network for Human Activity Recognition [5.600003119721707]
ウェアラブルデバイスによるヒューマンアクティビティ認識(HAR)は、フィットネストラッキング、ウェルネススクリーニング、生活支援など多くの応用により、大きな関心を集めている。
従来のディープラーニング(DL)は、HARドメインのアートパフォーマンスの状態を規定している。
提案手法はグラフニューラルネットワーク(GNN)を用いて,入力表現を構造化し,サンプル間の関係性を利用する手法である。
論文 参考訳(メタデータ) (2022-06-10T03:04:23Z) - Interactive Visual Pattern Search on Graph Data via Graph Representation
Learning [20.795511688640296]
視覚分析システムGraphQは、ループ内、サンプルベース、サブグラフパターン検索をサポートする。
高速で対話的なクエリをサポートするために、グラフニューラルネットワーク(GNN)を使用して、グラフを固定長潜在ベクトル表現としてエンコードする。
また,NuroAlignと呼ばれるノードアライメントのための新しいGNNを提案し,クエリ結果の検証と解釈を容易にする。
論文 参考訳(メタデータ) (2022-02-18T22:30:28Z) - Node Feature Extraction by Self-Supervised Multi-scale Neighborhood
Prediction [123.20238648121445]
我々は、新しい自己教師型学習フレームワーク、グラフ情報支援ノード機能exTraction (GIANT)を提案する。
GIANT は eXtreme Multi-label Classification (XMC) 形式を利用しており、これはグラフ情報に基づいた言語モデルの微調整に不可欠である。
我々は,Open Graph Benchmarkデータセット上での標準GNNパイプラインよりもGIANTの方が優れた性能を示す。
論文 参考訳(メタデータ) (2021-10-29T19:55:12Z) - Coarse-to-Fine Object Tracking Using Deep Features and Correlation
Filters [2.3526458707956643]
本稿では,新しいディープラーニング追跡アルゴリズムを提案する。
対象の翻訳を大まかに推定するために,深層特徴の一般化能力を利用する。
そして,相関フィルタの識別力を利用して追跡対象を正確に局所化する。
論文 参考訳(メタデータ) (2020-12-23T16:43:21Z) - ConsNet: Learning Consistency Graph for Zero-Shot Human-Object
Interaction Detection [101.56529337489417]
画像中のHuman, Action, Object>の形のHOIインスタンスを検出・認識することを目的としたHuman-Object Interaction (HOI) Detectionの問題点を考察する。
我々は、オブジェクト、アクション、インタラクション間の多レベルコンパレンシーは、稀な、あるいは以前には見られなかったHOIのセマンティック表現を生成するための強力な手がかりであると主張している。
提案モデルでは,人-対象のペアの視覚的特徴とHOIラベルの単語埋め込みを入力とし,それらを視覚-意味的関節埋め込み空間にマッピングし,類似度を計測して検出結果を得る。
論文 参考訳(メタデータ) (2020-08-14T09:11:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。