前端万花筒

2023年7月,迪斯尼前员工马修·范·安代尔收到一条令他毛骨悚然的Discord私信:"我掌握了你私人生活和工作的敏感信息。"对方不仅复述了他几天前在Slack工作群中与同事的午餐对话,还陆续抛出了他

迪斯尼泄漏4400万条机密数据,只因员工“尝鲜”AI工具

2023年7月 ,尝鲜迪斯尼前员工马修·范·安代尔收到一条令他毛骨悚然的尼泄Discord私信:"我掌握了你私人生活和工作的敏感信息。"对方不仅复述了他几天前在Slack工作群中与同事的漏万午餐对话 ,还陆续抛出了他的条机信用卡号 、社保账号 ,密数甚至家中智能摄像头Ring的据只具登录凭证 。

安代尔意识到自己被黑客入侵,工AI工立即联系了Disney的尝鲜网络安全团队。次日 ,尼泄黑客团体Nullbulge在网上发布了超过4400万条Disney内部消息 ,漏万包括客户隐私信息、免费模板条机员工护照号码和主题公园及流媒体收入数据 。密数

一场“影子AI”引发的据只具重大数据泄漏事故

时隔两年后 ,迪斯尼披露了这场重大数据泄露事件的工AI工调查结果 ,黑客的尝鲜突破口居然是员工个人设备上安装的“AI工具”。

2023年2月,安代尔在家用电脑通过代码托管平台GitHub下载了一款"免费AI图像生成工具"。这款表面正常的软件实则为恶意程序,黑客借此植入键盘记录木马 ,劫持了他存储所有密码的1Password管理器。亿华云

更致命的是 ,范·安代尔的1Password账户未启用双因素认证 ,黑客获取主密码后提取了密码管理器中数百个账号口令。通过窃取的Slack会话cookie ,黑客直接登录其迪斯尼内部账户,潜伏五个月后突然发难 。私人邮箱  、儿童Roblox游戏账号 、社交媒体悉数沦陷 ,甚至迪斯尼的财务数据、员工护照信息等核心资产也遭泄露。模板下载

"影子AI":企业安全的新毒瘤

迪斯尼的遭遇这并非孤例  。谷歌Mandiant调查显示 ,2023年以牟利为目的的网络入侵中 ,近40%使用窃取凭证 ,较2022年翻倍 。而"影子AI"(员工未经审批使用外部AI工具)正成为黑客的新跳板 。

影子AI的主要风险

根据2024年Work Trend Index Annual Report ,78%的AI用户在工作中使用自带工具,52%不愿承认使用,高防服务器显示出员工对影子AI的隐秘依赖。另一项研究表明 ,74%的ChatGPT(一种与DeepSeek性能接近的生成式AI应用)使用非公司账户,74%的Gemini和Bard使用也是如此 ,影子AI已经在企业中无处不在。

员工使用个人AI工具的动机多种多样 :员工可能因现有工具效率低下而转向更便捷的AI解决方案 ,或希望提升个人和团队生产力。然而,风险不容忽视。源码下载IBM的研究显示 ,超过三分之一(38%)的员工承认在未经雇主许可的情况下与AI工具共享敏感工作信息 ,这可能导致数据泄露、合规违规和声誉损害。此外 ,影子AI工具在外部服务器上存储数据 ,增加被黑客攻击的风险 ,尤其是在使用开源AI模型时。

2025年CX Trends Report显示,某些行业影子AI使用率同比增长250%,如金融和医疗行业 ,建站模板凸显了监管的紧迫性 。

管理影子AI:平衡创新与安全

面对影子AI的挑战,企业需要采取综合策略 ,减少风险同时保留AI带来的创新潜力。首先 ,制定清晰的AI使用政策是关键 ,明确哪些工具可以被批准使用,并教育员工关于影子AI的潜在危险 。其次  ,提供经安全验证的AI工具,如企业级(私有化部署)AI替代方案,满足员工需求,同时确保数据保护 。

技术解决方案也至关重要 。部署监控和报告系统以检测未经授权的AI使用,如维护AI工具黑名单和白名单 ,可以有效防止影子AI的扩散 。此外 ,定期审计和跨部门合作可以帮助组织在治理和创新之间找到平衡点 。

最后,创造一个开放的沟通环境 ,鼓励员工报告他们希望使用的AI工具,并通过集中平台评估和批准新工具  ,可以减少影子AI的发生 。例如 ,Dell的研究显示,91%的受访员工曾尝试生成式AI,71%在工作中使用 ,显示出员工对AI的强烈需求 。通过教育和支持,企业可以引导这种需求走向安全轨道 。

访客,请您发表评论:

网站分类
热门文章
友情链接

© 2025.滇ICP备2023006006号-50sitemap