Table of Contents

概要

論文:Ye et al., Continual Self-supervised Learning: Towards Universal Multi-modal Medical Data Representation Learning(cvpr2024 open accessまたはarxiv

img

(この記事の図表は元論文から引用)

論文の新規性

  • モダリティの衝突と破滅的忘却を防ぐためにMedical Continual Self-Supervised(MedCoSS)パラダイムを提案した。
  • MedCoSSは継続学習において各モダリティデータを個別の訓練段階に割り当てる。
  • 以前のモダリティデータを保持するためにリハーサルバッファーが導入された。
  • モダリティ:レポート、X線、CT、MRI、病理画像。

性能評価手法

  • MedCoSSを単一モダリティ事前学習およびマルチモーダル事前学習(Joint SSL、EWC、ER、PackNet、CaSSLeを含む)と比較した(表を参照)。

img

議論

  • MedCoSSは一部のモーダルで最高性能を示すが、他のモーダルではそうではない
  • リハーサルバッファのサイズは性能とマルチモーダルデータの衝突および計算コストとのトレードオフである