<track id="pvj18"></track>
      <track id="pvj18"><span id="pvj18"></span></track>
        1. <nobr id="pvj18"></nobr>

          新闻

          AI、5G和云计算如何影响2021年的边缘计算?

          2020-11-25比特网

          126阅
          到2021年,人工智能在边缘计算中的应用将发生巨大变化:学习将从边缘开始,而不是在数据中心训练机器学习模型。
              11月17日消息,到目前为止,边缘计算一直拥有着巨大潜力,目前它仍在不断发展。到2021年,新商业模式的出现,这将有助于促进边缘计算生产中的使用。
           
              2021年将使边缘计算从科学项目走向真正价值的新商业模式将基于两个因素,云平台必须与人工智能竞争,5G的广泛采用将使边缘计算用例更加实用。考虑到这两个驱动因素,可以预测到2021年技术世界的发展将如何直接影响边缘计算。
           
              人工智能正将数据中心推向极限
           
              到2021年,人工智能在边缘计算中的应用将发生巨大变化:学习将从边缘开始,而不是在数据中心训练机器学习模型。此外,应用智能将在加速数字化转型的前沿领域蓬勃发展,尤其是在需要实时连接物理和数字世界的行业。
           
              将广泛部署专用5G网络
           
              到2021年,专用5G网络将用于工厂车间自动化、AR/VR和其他远程检查、监控、质量保证、远程监控、预防性维护和员工安全等场景。
           
              公有云的增长将放缓,而边缘支出则会增加
           
              随着市场的成熟,公有云市场的增长率将放缓。相反,边缘计算的增长将呈现爆炸式增长,这意味着对于已经投资于类似云的边缘计算和内容交付解决方案的公司来说,增长将更大。公有云部门不会消失,但它们不会支配分布式计算的未来。
          责任编辑:田耘
          本文来源于互联网,e-works本着传播知识、有益学习和研究的目的进行的转载,为网友免费提供,并以尽力标明作者与出处,如有著作权人或出版方提出异议,本站将立即删除。如果您对文章转载有任何疑问请告之我们,以便我们及时纠正。联系方式:editor@e-works.net.cn tel:027-87592219/20/21。
          读者评论 (0)
          请您登录/注册后再评论
          尤物视频YW193.C0m