2022年12月28日にPNAS(米国科学アカデミー紀要)にて、理化学研究所 生命機能科学研究センター 細胞システム動態予測研究チーム(チームリーダー城口克之先生)から、当社の「TOPickⅤ 1細胞ハンドリングシステム」と株式会社ニコンソリューションズ社製「Ti-E顕微鏡/NIS-Elementsシステム」を基幹とする、Automated Live imaging and cell Picking System (ALPS)を用いて、明視野の細胞画像から、それらの細胞種や状態を推定することに成功したと報告がなされました。
細胞の種類をある程度判断するには、細胞の表面抗原を蛍光染色する方法や、あるいは観察者の経験に頼る方法がありますが、正確にその種類や状態を同定するには、今のところその細胞を壊して成分を取り出し調べるしかありません。その代わり壊してしまうと、細胞が無くなってしまうため他のことに利用できなくなってしまうという課題が存在します。
ALPSでは1個1個の細胞の明視野観察画像と、NGS(次世代シーケンサー)により網羅的遺伝子発現情報を調べ、この画像とデータをAI(深層学習)により紐づけすることで、明視野観察画像のみで細胞種を識別できることを確認いたしました =データ駆動(データを出発点にして法則を見出す手法)
このことを人に例えると、顔が良く似た人種(例えば日本人、朝鮮人、モンゴル人)1000人の顔写真を写し、合わせて血液を採り(この時ヒアリングや質問は一切しない=無情報)、その血液中の遺伝子情報から人種を識別のうえ、顔写真と紐づけを行い法則性を導き出し、そのあと顔写真のみから人種を識別するといったようなことを行ったのが今回の研究成果となります。
この着想は、直近の研究分野においては、①すでに様々な生物を対象に行われている細胞種のAI識別を行う際に、人の経験則からの識別のみではなく、細胞内データと関連付けることが可能となる ②細胞移植などが必要となった場合に、ラベルフリーで必要な細胞だけを回収することが可能となる などに応用が可能となります。
またそれだけではなく、将来的には人の顔写真や外観写真から、何かの病気を発症しつつあるかなどを予測することが可能となる技術の基礎となりえるものです。
ペットや家畜、その他、自然界のあらゆる生物対象に対して行うことが出来る手法となることでしょう。
PNAS(December 28,2022)「Robotic data acquisition with deep learning enables cell image-based prediction of transcriptomics phenotypes」
https://www.pnas.org/doi/10.1073/pnas.2210283120
理化学研究所(プレスリリース)
https://www.riken.jp/press/2022/20221227_1/index.html
日刊工業新聞(2022/12/28)
https://www.nikkan.co.jp/articles/view/00658658