由于安全措施,Microsoft 对 OpenAI 的 ChatGPT 实施了短暂的封锁

由于安全措施,Microsoft 对 OpenAI 的 ChatGPT 实施了短暂的封锁
Microsoft 已在其内部网络上暂停了 OpenAI 的 ChatGPT 聊天机器人。对敏感数据安全处理的担忧促使这家软件巨头禁止在企业设备上使用各种人工智能工具,包括流行的 ChatGPT 和最初的设计应用程序 Canva。根据汤姆·沃伦(Tom Warren)的说法,通过内部更新通知了员工这一限制。这个封锁似乎是暂时的,Microsoft后来取消了它。

Microsoft与OpenAI的关系

这些安全措施的核心在于Microsoft与OpenAI的复杂关系。这家科技公司已向人工智能研究组织投资了 100 亿美元,并将 OpenAI 的尖端技术集成到自己的产品中,同时为 OpenAI 提供 Azure 云平台服务。尽管这种相互交织的伙伴关系,微软首席执行官萨蒂亚·纳德拉(Satya Nadella)最近在OpenAI的首届开发者大会DevDay上露面,强调了持续的合作,但Microsoft一直对其保护企业数据的责任保持警惕。

快速逆转和未来建议

ChatGPT上的封锁很短暂,因为端点过滤(旨在成为受控测试的一部分)被错误地在Microsoft员工中广泛应用。该疏忽在发现后不久就得到了纠正,恢复了对服务的访问。Microsoft发言人澄清说,该测试的应用并不意味着一个全面的政策转变。与此同时,Microsoft 推广使用自己的 AI 聊天机器人 Bing Chat,该机器人结合了 OpenAI 的 GPT-4 模型,并声称提供强大的隐私和安全功能。

虽然 Microsoft 鼓励使用专有服务,如 Bing Chat Enterprise 和 ChatGPT Enterprise,但 ChatGPT 的临时关闭,无论是否有意,都反映了 Microsoft 一直在努力确保其内部安全协议能够管理与大型语言模型 (LLM) 相关的风险。向员工和整个行业传达的基本信息很明确:在人工智能技术快速发展的时代,保持警惕和谨慎仍然是最重要的。

正文完