我们需要什么样的云平台

注:本文的修订版已发布在InfoQ,请查看:http://www.infoq.com/cn/articles/yygame-cloudplatform

YY游戏早已在Cloud上运行,第一代云平台基于Openstack,已支撑了几十万同时在线的游戏用户。但是Openstack庞大复杂,以及扩展性的弱点,导致我们在云的可控性方面大为被动,从而产生了第二代云平台的需求。

那么我们需要一个什么样的云呢?首先,它是基于私有云。其次,这个私有云一定满足我们业务的特点,比如游戏行业与金融行业,业务特点截然不同。再次,这个云一定要可管理、可扩展、可控。对于一个平台服务,它存在性能短板、运行故障并不可怕,可怕的是出问题后用户无法跟踪和定位,从而失去可控性。

在Cloud 1.0里,我们并没有实现租户网络,不同的游戏厂家都接入同一Flat网络,这对隐私和安全都不利。网络和业务架构如下:

cloud1netarch

上述图里,云网关是游戏平台里一个重要产品,请参考腾讯游戏的TGW。简言之云网关有两个重要作用,一是收敛公网IP,节省IP成本;二是集中安全防护,降低单个云主机被DDoS的可能性。我们所有的云主机都只有内网IP,运行在云网关后面。除了云主机外,还有云DB、云缓存、云存储等配套产品,都是游戏服务需要的。

在Cloud2.0里,重点解决租户网络(VPC)的实现问题。出于前面提到的原因,我们并不打算采用Openstack的租户网络方案。在充分调研和学习的基础上,自主设计了一套基于硬件的解决方案,其中VPC、子网、路由、云网关都采用硬件实现。架构图如下:

cloud2

我们看到图里标明了3个租户,实际上我们会有数K个租户,每个租户都有自己的虚拟私有网络,也就是租户网络(VPC)。每个VPC保持独立性,彼此隔离。我们采用VxLAN技术来实现VPC,因为传统的VLAN有规模限制(4K),我们不能做一个将来无法扩展的平台。而VxLAN的16M规模可以充分满足需求。

VM的数据包进入接入交换机(TOR)后,由TOR加上VxLAN头部,并进行转发。一般来说如果同一租户同一子网的数据包,由本地TOR直接转发到邻居TOR。如果是同一个租户不同子网的数据包,先发给汇聚交换机,由汇聚交换机转发到下一个TOR。汇聚交换机在这里充当VxLAN网关的角色,第一它负责VxLAN网络里不同子网间的路由;第二如果数据包需要离开VxLAN,它会剥离VxLAN头部,将包转发给因特网网关。

数据包离开汇聚交换机后,到达网关就是普通的包。当然,由于我们支持多租户,每个租户的子网可能是重叠的,所以汇聚交换机和网关之间通信走VRF。另外,我们的VM默认都没有公网IP,所以需要网关兼具如下功能:

  • SNAT:VM出到公网的数据包由网关根据VRF进行源地址转换
  • DNAT:VM的某个端口需要被外网访问,由网关根据端口进行目的地址转换
  • Floating IP:少数VM需要一个独立的公网IP,在网关上进行一对一的映射

图里描述的接入交换机、汇聚交换机、网关都是独立的物理设备。但是,汇聚层和网关层也可以是PC服务器集群,既充当VxLAN网关,又实现NAT功能。

VPC的实现是Cloud 2.0与1.0的主要区别。在1.0里我们使用Openstack的Provider Networking网络类型,它就是一个大的混合网络。随着规模的扩展,这种网络类型已经不能满足我们需求。所以2.0的建设重点是实现每个租户拥有独立的VPC。比如用户A,跟用户B,拥有两个互不相通、彼此隔离的二层网络。用户A和B都可以自定义他们的网络地址段、路由、访问控制策略。关于VPC的架构借用AWS的一张图来描述:

getting-started-3-diagram

VPC有很多种实现方式,既有软件的也有硬件的,有VxLAN类型也有NvGRE类型。我们在Cloud 2.0设计阶段综合考虑到性能、稳定性、开发成本、上线时间等因素,决定第一期采用基于硬件的VxLAN来实现VPC。

VxLAN网络由接入交换机和汇聚交换机组成,数据包在它们之间传输时,会带上VxLAN头部,从而隔离成一个个独立的二层网络。数据包在进入接入交换机之前,以及在离开汇聚交换机之后,都没有VxLAN头部,是普通的数据包。VxLAN网络规模理论上可以达到16M,也就是16M个VPC实现。当然,由于VRF数量有限,在实际中并不能产生这么多的VPC,除非这些VPC都不需要访问公网。

图的下半部分,Hypervisor代表计算节点的宿主机,它们接入独立的管理网络,这只是一个物理的二层网络,非虚拟网。管理网络里除了有宿主机外,还有控制器、管理数据库、分布式存储等。控制器的作用不言自明。分布式存储是VM运行的数据支撑层,我们的VM不管是操作系统自身,还是数据盘,都运行在分布式存储上。这样既保证数据安全,又满足云平台的特性,比如VM快速启动和迁移。

云平台包含三个关键部分:虚拟计算、虚拟网络、虚拟存储。这里面虚拟网络是基础,它的结构决定了整个云平台的实现架构。如果把虚拟网络搞定,那么虚拟计算、虚拟存储都问题不大,这也就是为什么在Cloud 2.0里,我们敢于抛弃Openstack的原因。我们需要开发一套应用程序,完成对这三套底层系统的调用、调度、监控和反馈。而这套应用程序就是自己的云平台实现,它的架构参考如下:

cloudbiz

因为虚拟网络(又称软件定义网络、SDN)一直是我们的重点,所以本文谈的也基本围绕它进行。虚拟网络实现的本质是控制器的实现,控制器是虚拟网络的灵魂。VxLAN网络里大量的数据交互,都需要控制器参与。

比如控制器要记录每个VM的虚拟Mac,并下发到TOR,这样VM在发起ARP查询时,TOR才能进行ARP代答。再比如某个VM的网络请求接入到TOR,TOR需要查表才知道这个VM属于哪个VxLAN。还有同一子网里数据包在不同TOR之间转发、以及不同子网数据包在VxLAN网关里的路由转发,都需要查控制器的表项来决定。

SDN控制器是目前非常热门的技术方向,有很多开源项目参与进来,但成熟的产品很少。它的开发工作量很大,Huawei公司研发敏捷控制器的部门就有100多人。而我们的Cloud研发部门总共才10几个人,很难有精力搞一套自己的控制器,所以倾向于采取跟第三方公司合作的方式来完成。

我们期待的是一个简单的控制器北向接口,它完成VPC、Subnet、Router、Port、Floating IP等网络基本要素的管理,参考此说明。而控制器自身的实现方式,目前对我们来说不是特别重要。比如有的控制器北向接口就是Neutron API,南向是自己实现的Drive,这个也完全可以。

在跟同行公司的交流中,我们得知业界在实现VPC时也有非硬件的解决方案。比如阿里云在VSwitch层面做了大量工作,用软件对流表隔离的方式来实现彼此独立的租户网络。这种方案比较灵活,对硬件设备的依赖少,不过开发周期长,在生产环境里不容易搞稳定,我们暂不考虑此方案。

我们VPC的实现主要由硬件交换机驱动的VxLAN来完成。VPC除了有内网,还需要跟外部通信,以及外部能访问VPC的服务,这些都使用硬件网络设备来实现。控制器要完成对这么多设备的串通联调,是一个非常大的挑战。

除了VPC的实现,Cloud 2.0还需要提供两个核心能力,一个是管理API,一个是按需使用的计费能力。我们在Cloud 1.0里已提供了完整API,可以实现对资源的创建和管理。2.0里也一样,用户可以使用API来管理网络、服务器、数据库等云资源。对游戏厂家来说,这是他们自动化运维的基础。

计费我们在1.0里做的不好,2.0应该予以完美实现。用户的计费模型,纵轴是时间维度,横轴是容量或能力维度。容量包括内存大小、磁盘大小、带宽多少等,能力包括CPU计算性能、磁盘读写性能等。提供灵活的计费能力,按需使用,用多少算多少,无疑对我们客户具备更大的吸引力。这一点Vultr的平台做的非常好,我在使用它们按需计费的能力后深觉方便,就在最近把Linode上用了5年的云主机,迁移到了Vultr。

关于系统的扩展性,主要存在租户规模上。如果租户一直扩张,虽然内部VPC的16M规模可以充分满足,但是网关的VRF数量会面临不够。参考业界的解决方案,今后如果租户规模扩张到很大,我们也会考虑开发PC服务器集群的VxLAN网关,来代替目前的硬件网关方案。

这个VxLAN网关实现了现在架构里的汇聚交换机和硬件网关的功能。VxLAN网关在设备层面基于高性能转发架构,如Intel的DPDK,实现VxLAN Overlay网络L3 GW功能;在控制层面是基于标准南向控制接口的SDN网元,支持的协议包括Openflow+Netconf。架构上它是一个服务器集群,每个节点都能处理VxLAN封装、卸载、路由等功能,以及网络地址转换(NAT)。接入交换机的VxLAN数据包需要发给网关时,寻址方式可以在控制器里由预定义的策略决定。集群理论上支持无限的水平扩展,在保证性能的同时,保持了经济性。

最后说到可控性,在Cloud 1.0里我们虽然使用了Openstack,却远没达到掌控自如的程度。Openstack庞大复杂,众多的组件、复杂的交互关系、以及并不太好的软件质量,让我们望而止步。所以在2.0里,我们的基本目标之一是可控。现在虚拟网络自主实现,虚拟计算和虚拟存储也有经过验证的可行方案,那么只需要业务层做好整合,整个系统就具备可控性。过去的云平台出了问题,难以发现原因,即使发现了也难以深层次跟踪问题。现在Cloud 2.0里所有调用和调度都自己实现,出问题后跟踪和分析能力要大为提升。

我们的Cloud 2.0还在开发阶段,在实现过程中肯定还会遇到各种问题和困难。期待它上线后能改善现有的问题,带来更好的性能、扩展性和安全性。如果您对我们的技术方案有任何疑问或意见,欢迎跟我探讨。

此条目发表在Common分类目录,贴了标签。将固定链接加入收藏夹。