微软研究院 MEB AI for Bing 是有史以来最复杂的模型之一

系统工具 tobmac 1个月前 (08-19) 38次浏览 已收录 0个评论 扫描二维码
微软研究院 MEB AI for Bing 是有史以来最复杂的模型之一

Microsoft Research 正在测试有助于改进 Bing 搜索结果的神经网络机器学习模型。近年来,微软有争议地接近 OpenAI,并通过独家许可使用 GPT-3 模型。这包括5 月份推出的Power FX AI解决方案。

微软对 GPT-3 的兴趣反映了越来越多地使用基于转换器的深度学习模型。更多的组织正在使用这些模型,因为它们可以更好地理解语义关系。

微软在关联基于 Transformer 的深度学习时发现的问题之一是,关系中的细微差别通常超出了模型

微软研究院现在已经创建了一个神经网络,几乎与 GPT-3 的功能相匹配。它拥有 1350 亿个参数,是有史以来最大的通用 AI 模型。根据研究团队的一篇论文,该模型已经在 Bing 中运行。

作为有史以来最复杂的人工智能之一,它接近 GPT-3 可以处理的 1750 亿个参数。

MEB

微软将 AI 模型命名为 MEB(Make Every Feature Binary),并在 Bing 搜索引擎中使用它。具体来说,它会分析用户的搜索词并帮助找到最相关的网站。它通过利用其他机器学习算法来提高生产力,从而获得最佳结果。

“MEB 作为基于 Transformer 的深度学习模型的搜索相关性的补充,之所以如此有效,一个原因是它可以将单个事实映射到特征,从而使 MEB 能够更细致地理解单个事实。例如,许多深度神经网络 (DNN) 语言模型在填写这句话的空白时可能会过度泛化:“(blank) can fly”。由于大多数 DNN 训练案例的结果是“鸟类可以飞”,因此 DNN 语言模型可能只会用“鸟类”这个词来填补空白。


TobMAC , 版权所有丨如未注明 , 均为原创丨本网站采用BY-NC-SA协议进行授权
转载请注明原文链接:微软研究院 MEB AI for Bing 是有史以来最复杂的模型之一
喜欢 (0)
发表我的评论
取消评论
表情 贴图 加粗 删除线 居中 斜体 签到

Hi,您需要填写昵称和邮箱!

  • 昵称 (必填)
  • 邮箱 (必填)
  • 网址