患者のプライバシー保護とAIアルゴリズム開発の両立

AIは現在、病気の治療や有望な新薬の発見、遺伝子と病気の関連性の特定などに利用されています。大規模なデータセットを分析してパターンを見つけ出すことで、患者を助けることができるのです。そのためにも、AIの研究者は、アルゴリズムを訓練・検証するための適切なデータを入手する必要があります。

しかし、病院は当然のことながら、患者の機密情報を研究チームと共有することを躊躇します。また、データを共有したとしても、研究者が必要なデータだけを使用し、終了後にデータを削除していることを確認するのは困難です。

マサチューセッツ工科大学のManolis Kellis教授らによって設立されたSecure AI Labs(SAIL)は、上記ような問題を解決するために、データ所有者のシステムから離れることなく、暗号化されたデータセット上でAIアルゴリズムを実行できる技術を開発しました。医療機関はデータセットの使用方法をコントロールでき、研究者はモデルや検索クエリの機密性を守ることができます。どちらもデータやモデルを見る必要がなく、共同作業が可能です。

また、SAILのプラットフォームでは、複数のソースからのデータを組み合わせて、より効果的なアルゴリズムを生み出すための豊富な知見を得ることができます。SAILはすでに病院やライフサイエンス企業と提携し、匿名化されたデータを研究者向けに公開しています。来年には、国内のトップ50のアカデミックメディカルセンターの約半数と提携する予定です。

MITのリリースはこちら