隐私计算:构建可信执行环境
最后更新于
最后更新于
保障数据以“可用不可见”的方式进行安全流通。
假设目前有3方,甲方是医院,乙方是医疗科技企业,丙方是云计算企业。
甲方:拥有医疗影像数据;
乙方:拥有算法模型;
丙方:提供计算资源;
目标:甲方利用乙方的算法模型生成预测结果辅助诊断,甲方的数据不能被乙方或者丙方看到。乙方不允许甲方或丙方拿到算法模型,保护自己的知识产权。丙方提供技术支持,不碰甲方和乙方的数据。
甲方使用密钥B加密医疗影像数据;
乙方使用密钥A加密算法模型;
加密后的医疗影像数据和加密后的算法模型放到Amazon Nitro Enclaves 作为可信执行环境(TEE)进行AI推理运算。
本方案核心原理是 Amazon Nitro Enclaves 与 Amazon KMS 的整合,被加密的推理模型运行在隔离的 Enclaves 实例中,能且仅能在 Enclaves 实例中进行解密。Nitro Enclaves 与 KMS 实现了“Remote Attestation(远程认证)” ([Blog] 突破隐私计算边界:亚马逊云科技可信执行环境助力医疗领域提供详细描述),通过限制对 KMS 的访问从而控制推理模型的解密,防止被恶意攻击和破解。对于需要进行推理的数据,采取同样的方式运行在 Enclaves 中并解密,因此保证明文状态仅出现在 Enclaves 内部,从而保证推理数据安全。