CellCLIP:テキストガイド付きコントラスティブ学習によるセルペインティングにおける摂動効果の学習

CellCLIP:テキストガイド付きコントラスティブ学習によるセルペインティングにおける摂動効果の学習

なぜ重要か: 企業や社会への影響が見込まれ、一般メディアにも波及する可能性があります。

ソースを読む(export.arxiv.org)

arXiv:2506.06290v3 発表種別:差し替え

要旨:Cell Paintingなどのハイスループット顕微鏡技術に基づくハイコンテントスクリーニング(HCS)アッセイは、前例のない規模で細胞の形態学的反応を摂動に対して調査することを可能にした。このようなデータの収集は、様々な摂動とそれらが細胞状態に及ぼす影響との間の関係をより深く理解することに役立つと期待される。この目標達成に向けて、近年発展したクロスモーダルコントラスティブラーニングは、理論的には、摂動とその対応する形態学的影響を整合させる統一された潜在空間を学習するために活用できる。しかし、Cell Painting画像と自然画像との意味論的な大きな違い、および様々な摂動の種類(例えば、低分子化合物対CRISPR遺伝子ノックアウト)を単一の潜在空間に表現することの困難さのため、このような手法をHCSデータに適用することは容易ではない。これらの課題に対応するため、本稿ではHCSデータのためのクロスモーダルコントラスティブラーニングフレームワークであるCellCLIPを紹介する。CellCLIPは、画像埋め込みにおける異なる顕微鏡チャネル間の関係をより適切に捉えるために事前学習済みの画像エンコーダと新規なチャネルエンコーディングスキームを組み合わせ、摂動の表現には自然言語エンコーダを活用する。我々のフレームワークは、現在のオープンソースモデルを上回り、クロスモーダル検索と生物学的に意味のある下流タスクの両方において最高の性能を示すとともに、計算時間の大幅な削減も達成する。

原文(英語)を表示

Title (EN): CellCLIP — Learning Perturbation Effects in Cell Painting via Text-Guided Contrastive Learning

arXiv:2506.06290v3 Announce Type: replace-cross
Abstract: High-content screening (HCS) assays based on high-throughput microscopy techniques such as Cell Painting have enabled the interrogation of cells’ morphological responses to perturbations at an unprecedented scale. The collection of such data promises to facilitate a better understanding of the relationships between different perturbations and their effects on cellular state. Towards achieving this goal, recent advances in cross-modal contrastive learning could, in theory, be leveraged to learn a unified latent space that aligns perturbations with their corresponding morphological effects. However, the application of such methods to HCS data is not straightforward due to substantial differences in the semantics of Cell Painting images compared to natural images, and the difficulty of representing different classes of perturbations (e.g., small molecule vs CRISPR gene knockout) in a single latent space. In response to these challenges, here we introduce CellCLIP, a cross-modal contrastive learning framework for HCS data. CellCLIP leverages pre-trained image encoders coupled with a novel channel encoding scheme to better capture relationships between different microscopy channels in image embeddings, along with natural language encoders for representing perturbations. Our framework outperforms current open-source models, demonstrating the best performance in both cross-modal retrieval and biologically meaningful downstream tasks while also achieving significant reductions in computation time.

Published: 2025-09-24 19:00 UTC


コメントする