发布时间:2025-01-16 20:03:38 栏目:科技
在AI时代,用户数据成为大模型进步的基石。白领们频繁使用AI工具提升工作效率,如制作PPT、海报等,甚至用于叫外卖、订酒店。然而,这种数据收集和使用方式带来了隐私风险,许多用户不了解AI工具的数据收集、处理和存储方式,担心数据被滥用或泄露。今年3月,OpenAI的ChatGPT数据泄露事件,以及Meta的AI模型侵犯版权争议,引发了公众对大模型数据安全和个人隐私保护的担忧。
「科技新知」实测了7款国产大模型产品的隐私政策和用户协议,发现不少产品在透明度方面做得不足。虽然这些产品均设有隐私政策说明如何收集和使用个人信息,但用户对于撤回数据“投喂”AI训练的权利有限。此外,这些大模型产品的训练语料来源不透明,存在版权风险。用户数据被用于模型优化、品牌推广等,甚至可能被企业用于商业利益。智能体、端侧AI的应用也带来了更复杂的隐私风险。当前主流大模型在透明度方面存在亟待解决的问题,侵蚀了用户对大模型的信任。未来,大模型厂商需优化产品设计与隐私政策,监管部门也应完善相关法律法规,确保大模型行业的健康、可持续发展。
免责声明:本文由用户上传,如有侵权请联系删除!