信基金会的任何活动请进入 会议 的生活
机器学习是公众和数字服务用户越来越熟悉的概念。得益于人工智能和计算机科学这门学科计算机可以识别描述人类行为的模式等。为此必须使用直接从用户活动中提取的大量数据以及这些数据提供给机器的信息来训练计算机。 到目前为止一切听起来都不错。当我们意识到通过预测行为计算机也可以检测弱点时问题就来了。或者换句话说如果模型知道你什么时候吃冰淇淋或巧克力它也能理解你喜欢什么。这可能导致机器学习模型的所有者能够为了自己的利益而操纵用户。此时科学界开始追问我们如何才能保护甚至改善用户及其数据的隐私同时允许构建机器学习模型来使用该数据 差分隐私以隐私为中心避免机器学习产生的操纵 机器学习如何操纵我们让我们以我 电话号码数据 们可以与经过机器学习训练的人工智能进行交互的任何场景为例书店的网站我们最喜欢的视频应用程序等。在这些情况下机器学习有助于对某些文章的点击进行建模和预测根据您的喜好提供关于看什么或买什么的建议。在这些情况下可用选项会非常多以至于没有用户可以处理所有选项。
https://static.wixstatic.com/media/65297b_38b5275e7d7a4a74bf00319d651b68ff~mv2.jpg/v1/fill/w_704,h_412,al_c,q_80,usm_0.66_1.00_0.01,enc_auto/65297b_38b5275e7d7a4a74bf00319d651b68ff~mv2.jpg
因此用户最终被鼓励甚至被限制从机器学习方法提供的建议中进行选择根据对用户偏好的预测或方法所有者希望他们偏好的内容进行预选。 出于这个原因在机器学习社区内正在研究解决这个问题的替代方案。被称为 类似于保护隐私的自动学习其首字母缩写词为 的技术的发展正在推动和理解数据隐私与数据模型有用性之间的权衡学习。 用来保护用户数据的技术之一是差分隐私。 我们可以将差分隐私想象成一种将噪声引入数据或学习模型以将其与原始数据区分开来的机制。通过这种方式我们可以 隐藏 或淡化将用户与原始数据区分开来的信息 ó 科学团队的研究员 解释道。
强烈支持楼主ing……
页:
[1]