新算法增强了敏感数据的隐私性
当你去看医生时,医生会记录药物处方、X 光检查和基因测试等信息以协助医生。在这些情况下,一种称为联合学习或协作学习的技术可用于降低敏感数据泄露的风险。该技术允许多台设备协同工作,而无需彼此共享实际数据。计算机科学系博士生 Saloni Kwatra 在她的论文中发现了该技术的缺陷,并开发了新的算法来增强用户安全性。
“联邦学习通常用于保护用户隐私。然而,在系统更新期间,敏感信息仍然可能泄露。我的研究已经产生了可以防止此类泄露的算法。”Saloni Kwatra 说道。
为了实现这一目标,她使用了两种技术:k-匿名和差分隐私。使用 k-匿名,数据被组织成多个人共享每个识别细节组合(例如身高、年龄或眼睛颜色)。这使得很难区分或识别任何人,因为他们与具有相同特征的其他人归为一类。
另一方面,差异隐私可确保无论特定个人是否包含在数据集中,分析结果都不会受到显著影响。这样,即使数据用于研究或学习,个人隐私也会受到保护。
对抗干扰攻击的方法
Saloni Kwatra 还探索了如何保护合成数据(即模仿真实模式但不包含实际个人信息的数据)免受所谓的属性推断攻击。在这些攻击中,攻击者试图重建个人的特定特征。这些新算法对于数据完整性至关重要的行业尤其重要,例如医疗保健、金融和电信。
“在这些领域,这些算法可以帮助维护用户隐私,同时使系统更加安全和高效,”Saloni Kwatra 说。
页:
[1]