LinkedIn悄然挑选用户数据用于AI模型训练,隐私问题随之浮现

2025-07-03 18:30来源:会员发布

  

领英(linkedIn)因在未征得用户同意的情况下,自动将用户纳入一个利用其数据训练生成式人工智能模型的项目而受到批评。这一消息最早由404Media报道,令许多用户对隐私问题感到担忧。

默许加入与隐私政策更新

linkedIn在没有明确告知用户的情况下,推出了新的隐私设置和退出选项。随后,该公司更新了隐私政策,表示平台数据将用于人工智能模型的训练。正如TechCrunch所提到的,该政策已进行了进一步的修订。

linkedIn更新后的隐私政策现包含以下声明

“我们可能会利用您的个人数据来改进、开发和提供产品与服务,训练和开发人工智能(AI)模型,提供和个性化我们的服务,并借助人工智能、自动化系统和推理获取见解,从而使我们的服务对您及其他用户更加相关和有用。”

退出AI训练的选项

用户可以通过访问帐户设置中的“数据隐私”选项卡来撤回对人工智能训练的同意。在“生成式人工智能改进数据”部分,有一个开关,允许用户选择退出。然而,linkedIn澄清,选择退出仅会阻止未来的数据使用,而不会影响已进行的训练。

领英的人工智能培训常见问题解答页面指出,该公司使用“隐私增强技术来编辑或删除”训练数据集中的个人信息。它还声称,来自欧盟、欧洲经济区和瑞士的用户数据并未用于训练这些模型。

除了生成式人工智能模型,linkedIn还利用其他机器学习工具进行个性化和内容审核。若用户希望不使用数据来训练这些非生成模型,必须填写一份单独的“linkedIn数据处理反对表格”。

对数据隐私的关注日益增加

在linkedIn悄然将用户纳入人工智能培训之前,meta最近承认,自2007年以来一直在收集公开的用户数据用于模型训练。

广华资讯声明:未经许可,不得转载。