文章摘要
【关 键 词】 AI模型训练、数据隐私、用户退出设置、开发者权益、企业条款
该文聚焦于 GitHub 对其 Copilot 产品数据政策的更新,核心内容围绕自2024年4月24日起,Free、Pro 和 Pro+ 个人用户与 Copilot 的交互数据将默认用于训练和改进 AI 模型,除非主动退出;而 Copilot Business 和 Enterprise 用户及免费获得 Pro 权限的学生教师则不受影响。
GitHub 强调用户拥有自主选择权,但实际操作中,退出设置被指“极难找到”,需深入多层菜单,且界面说明与邮件提示存在不一致,部分用户反映即使进入设置页,也仅展开列表项,无法完成退出操作,被批评为“故意绕晕用户”并“赌多数人找不到”。
被纳入训练的数据涵盖用户输入内容、代码上下文、注释、仓库结构等,但明确排除企业级交互、已选退出用户的记录以及静态存储的 issue/description 等。
值得注意的是,“静态存储”表述引发争议——当用户主动使用 Copilot 时,私有仓库中的代码仍会被实时处理,并可能因未设退出而参与训练。
GitHub 补充称此类行为是服务运行所必需,非主动暴露,其保护措施包括访问控制、审计日志及自动化过滤(如屏蔽 API key、密码、token)。
面对开发者质疑其是否倚仗庞大用户群而非研发优势获取市场地位,GitHub 回应称已有2600万开发者活跃于 Copilot 平台,提供丰富场景数据以增强模型泛化能力。
此外,GitHub 声称微软、Anthropic 和 JetBrains 同样采用类似机制,用以弱化自身做法的孤立性。
然而,社区反响激烈,大量用户直言不满,质疑默认开启政策违背数据伦理,认为账户应默认处于退出状态、仅在用户主动授权时才启用;亦有人担忧组织协作者未退会导致自身数据被牵连;部分用户甚至表示正考虑关闭账号或转向其他 Git 平台。
整篇报道呈现技术政策变更中,企业诉求与用户知情权、控制权之间显著张力,突显开放平台在AI模型迭代过程中面临的信任挑战。
原文和模型
【原文链接】 阅读原文 [ 1774字 | 8分钟 ]
【原文作者】 AI前线
【摘要模型】 qwen3-vl-flash-2026-01-22
【摘要评分】 ★☆☆☆☆



