由12306.cn谈谈网站性能技术

由12306.cn谈谈网站性能技术

12306.cn网站挂了,被全国人民骂了。我这两天也在思考这个事,我想以这个事来粗略地和大家讨论一下网站性能的问题。因为仓促,而且完全基于本人有限的经验和了解,所以,如果有什么问题还请大家一起讨论和指正。(这又是一篇长文,只讨论性能问题,不讨论那些UI,用户体验,或是是否把支付和购票下单环节分开的功能性的东西)

业务

任何技术都离不开业务需求,所以,要说明性能问题,首先还是想先说说业务问题。

  • 其一有人可能把这个东西和QQ或是网游相比。但我觉得这两者是不一样的,网游和QQ在线或是登录时访问的更多的是用户自己的数据,而订票系统访问的是中心的票量数据,这是不一样的。不要觉得网游或是QQ能行你就以为这是一样的。网游和QQ 的后端负载相对于电子商务的系统还是简单。
  • 其二有人说春节期间订火车的这个事好像网站的秒杀活动。的确很相似,但是如果你的思考不在表面的话,你会发现这也有些不一样。火车票这个事,一方面会伴随着大量的查询操作,更BT的是下单的时候需要对数据库很多的一致性的操作,一方面是从起点到终点各个分段票的一致性,另一方面,买的人路线、车次、时间选择有很多,会不停地改变下单方式。而秒杀,直接杀就好了,没有那么多查询和一致性的问题。另外,关于秒杀,完全可以做成只接受前N个用户的请求(完全不操作后端的任何数据, 仅仅只是对用户的下单操作log),这种业务,只需要在内存cache中放好可秒杀的数量,还可以把数据分布开来放,100商品,10台服务器一台放10个,无需在当时操作任何数据库。可以订单数够后,停止秒杀,然后批量写数据库。而且秒杀的商品不多。火车票这个不是像秒杀那么简单的,春运时间,几乎所有的票都是热门票,而且几乎是全国人民都来了,而且还有转车业务,多条线的库存都要做事务操作,你想想吧,这有多难。(淘宝的双十一也就3百万用户,而火车票瞬时有千万级别甚至是亿级别的)(更新:2014年1月11日:来了淘宝后,对淘宝的系统有了解,淘宝的秒杀活动,本质上是用输验证码并在CDN上把用户直接过滤掉了,比如:1千万个用户过滤了只剩2万个用户,这样数据库就顶得住了)
  • 其三有人拿这个系统和奥运会的票务系统比较。我觉得还是不一样。虽然奥运会的票务系统当年也一上线就废了。但是奥运会用的是抽奖的方式,也就是说不存在先来先得的抢的方式,而且,是事后抽奖,事前只需要收信息,事前不需要保证数据一致性,没有锁,很容易水平扩展。
  • 其四订票系统应该和电子商务的订单系统很相似,都是需要对库存进行:1)占住库存,2)支付(可选),3)扣除库存的操作。这个是需要有一致性的检查的,也就是在并发时需要对数据加锁的。B2C的电商基本上都会把这个事干成异步的,也就是说,你下的订单并不是马上处理的,而是延时处理的,只有成功处理了,系统才会给你一封确认邮件说是订单成功。我相信有很多朋友都收到认单不成功的邮件。这就是说,数据一致性在并发下是一个瓶颈

  • 其五铁路的票务业务很变态,其采用的是突然放票,而有的票又远远不够大家分,所以,大家才会有抢票这种有中国特色的业务的做法。于是当票放出来的时候,就会有几百万人甚至上千万人杀上去,查询,下单。几十分钟内,一个网站能接受几千万的访问量,这个是很恐怖的事情。据说12306的高峰访问是10亿PV,集中在早8点到10点,每秒PV在高峰时上千万。

多说几句:

  • 库存是B2C的恶梦,库存管理相当的复杂。不信,你可以问问所有传统和电务零售业的企业,看看他们管理库存是多么难的一件事。不然,就不会有那么多人在问凡客的库存问题了。(你还可以看看《乔布斯传》,你就知道为什么Tim会接任Apple的CEO了,最主要的原因是他搞定了苹果的库存周期问题)
  • 对于一个网站来说,浏览网页的高负载很容易搞定,查询的负载有一定的难度去处理,不过还是可以通过缓存查询结果来搞定,最难的就是下单的负载。因为要访问库存啊,对于下单,基本上是用异步来搞定的。去年双11节,淘宝的每小时的订单数大约在60万左右,京东一天也才能支持40万(居然比12306还差),亚马逊5年前一小时可支持70万订单量。可见,下订单的操作并没有我们相像的那么性能高。
  • 淘宝要比B2C的网站要简单得多,因为没有仓库,所以,不存在像B2C这样有N个仓库对同一商品库存更新和查询的操作。下单的时候,B2C的 网站要去找一个仓库,又要离用户近,又要有库存,这需要很多计算。试想,你在北京买了一本书,北京的仓库没货了,就要从周边的仓库调,那就要去看看沈阳或 是西安的仓库有没有货,如果没有,又得看看江苏的仓库,等等。淘宝的就没有那么多事了,每个商户有自己的库存,库存就是一个数字,并且库存分到商户头上了,反而有利于性能扩展。
  • 数据一致性才是真正的性能瓶颈。有 人说nginx可以搞定每秒10万的静态请求,我不怀疑。但这只是静态请求,理论值,只要带宽、I/O够强,服务器计算能力够,并支持的并发连接数顶得住10万TCP链接的建立 的话,那没有问题。但在数据一致性面前,这10万就完完全全成了一个可望不可及的理论值了。

我说那么多,我只是想从业务上告诉大家,我们需要从业务上真正了解春运铁路订票这样业务的变态之处。

前端性能优化技术

要解决性能的问题,有很多种常用的方法,我在下面列举一下,我相信12306这个网站使用下面的这些技术会让其性能有质的飞跃。

一、前端负载均衡

通过DNS的负载均衡器(一般在路由器上根据路由的负载重定向)可以把用户的访问均匀地分散在多个Web服务器上。这样可以减少Web服务器的请求负载。因为http的请求都是短作业,所以,可以通过很简单的负载均衡器来完成这一功能。最好是有CDN网络让用户连接与其最近的服务器(CDN通常伴随着分布式存储)。(关于负载均衡更为详细的说明见“后端的负载均衡”)

二、减少前端链接数

我看了一下12306.cn,打开主页需要建60多个HTTP连接,车票预订页面则有70多个HTTP请求,现在的浏览器都是并发请求的(当然,浏览器的一个页面的并发数是有限的,但是你挡不住用户开多个页面,而且,后端服务器TCP链接在前端断开始,还不会马上释放或重要)。所以,只要有100万个用户,就有可能会有6000万个链接(访问第一次后有了浏览器端的cache,这个数会下来,就算只有20%也是百万级的链接数),太多了。一个登录查询页面就好了。把js打成一个文件,把css也打成一个文件,把图标也打成一个文件,用css分块展示。把链接数减到最低。

三、减少网页大小增加带宽

这个世界不是哪个公司都敢做图片服务的,因为图片太耗带宽了。现在宽带时代很难有人能体会到当拨号时代做个图页都不敢用图片的情形(现在在手机端浏览也是这个情形)。我查看了一下12306首页的需要下载的总文件大小大约在900KB左右,如果你访问过了,浏览器会帮你缓存很多,只需下载10K左右的文件。但是我们可以想像一个极端一点的案例,1百万用户同时访问,且都是第一次访问,每人下载量需要1M,如果需要在120秒内返回,那么就需要,1M * 1M /120 * 8 = 66Gbps的带宽。很惊人吧。所以,我估计在当天,12306的阻塞基本上应该是网络带宽,所以,你可能看到的是没有响应。后面随着浏览器的缓存帮助12306减少很多带宽占用,于是负载一下就到了后端,后端的数据处理瓶颈一下就出来。于是你会看到很多http 500之类的错误。这说明后端服务器垮了。

四、前端页面静态化

静态化一些不常变的页面和数据,并gzip一下。还有一个变态的方法是把这些静态页面放在/dev/shm下,这个目录就是内存,直接从内存中把文件读出来返回,这样可以减少昂贵的磁盘I/O。使用nginx的sendfile功能可以让这些静态文件直接在内核心态交换,可以极大增加性能。

五、优化查询

很多人查询都是在查一样的,完全可以用反向代理合并这些并发的相同的查询。这样的技术主要用查询结果缓存来实现,第一次查询走数据库获得数据,并把数据放到缓存,后面的查询统统直接访问高速缓存。为每个查询做Hash,使用NoSQL的技术可以完成这个优化。(这个技术也可以用做静态页面)

对于火车票量的查询,个人觉得不要显示数字,就显示一个“有”或“无”就好了,这样可以大大简化系统复杂度,并提升性能。把查询对数据库的负载分出去,从而让数据库可以更好地为下单的人服务。

六、缓存的问题

缓存可以用来缓存动态页面,也可以用来缓存查询的数据。缓存通常有那么几个问题:

1)缓存的更新。也叫缓存和数据库的同步。有这么几种方法,一是缓存time out,让缓存失效,重查,二是,由后端通知更新,一量后端发生变化,通知前端更新。前者实现起来比较简单,但实时性不高,后者实现起来比较复杂 ,但实时性高。

2)缓存的换页。内存可能不够,所以,需要把一些不活跃的数据换出内存,这个和操作系统的内存换页和交换内存很相似。FIFO、LRU、LFU都是比较经典的换页算法。相关内容参看Wikipeida的缓存算法

3)缓存的重建和持久化。缓存在内存,系统总要维护,所以,缓存就会丢失,如果缓存没了,就需要重建,如果数据量很大,缓存重建的过程会很慢,这会影响生产环境,所以,缓存的持久化也是需要考虑的。

诸多强大的NoSQL都很好支持了上述三大缓存的问题。

后端性能优化技术

前面讨论了前端性能的优化技术,于是前端可能就不是瓶颈问题了。那么性能问题就会到后端数据上来了。下面说几个后端常见的性能优化技术。

一、数据冗余

关于数据冗余,也就是说,把我们的数据库的数据冗余处理,也就是减少表连接这样的开销比较大的操作,但这样会牺牲数据的一致性。风险比较大。很多人把NoSQL用做数据,快是快了,因为数据冗余了,但这对数据一致性有大的风险。这需要根据不同的业务进行分析和处理。(注意:用关系型数据库很容易移植到NoSQL上,但是反过来从NoSQL到关系型就难了)

二、数据镜像

几乎所有主流的数据库都支持镜像,也就是replication。数据库的镜像带来的好处就是可以做负载均衡。把一台数据库的负载均分到多台上,同时又保证了数据一致性(Oracle的SCN)。最重要的是,这样还可以有高可用性,一台废了,还有另一台在服务。

数据镜像的数据一致性可能是个复杂的问题,所以我们要在单条数据上进行数据分区,也就是说,把一个畅销商品的库存均分到不同的服务器上,如,一个畅销商品有1万的库存,我们可以设置10台服务器,每台服务器上有1000个库存,这就好像B2C的仓库一样。

三、数据分区

数据镜像不能解决的一个问题就是数据表里的记录太多,导致数据库操作太慢。所以,把数据分区。数据分区有很多种做法,一般来说有下面这几种:

1)把数据把某种逻辑来分类。比如火车票的订票系统可以按各铁路局来分,可按各种车型分,可以按始发站分,可以按目的地分……,反正就是把一张表拆成多张有一样的字段但是不同种类的表,这样,这些表就可以存在不同的机器上以达到分担负载的目的。

2)把数据按字段分,也就是竖着分表。比如把一些不经常改的数据放在一个表里,经常改的数据放在另外多个表里。把一张表变成1对1的关系,这样,你可以减少表的字段个数,同样可以提升一定的性能。另外,字段多会造成一条记录的存储会被放到不同的页表里,这对于读写性能都有问题。但这样一来会有很多复杂的控制。

3)平均分表。因为第一种方法是并不一定平均分均,可能某个种类的数据还是很多。所以,也有采用平均分配的方式,通过主键ID的范围来分表。

4)同一数据分区。这个在上面数据镜像提过。也就是把同一商品的库存值分到不同的服务器上,比如有10000个库存,可以分到10台服务器上,一台上有1000个库存。然后负载均衡。

这三种分区都有好有坏。最常用的还是第一种。数据一旦分区,你就需要有一个或是多个调度来让你的前端程序知道去哪里找数据。把火车票的数据分区,并放在各个省市,会对12306这个系统有非常有意义的质的性能的提高

四、后端系统负载均衡

前面说了数据分区,数据分区可以在一定程度上减轻负载,但是无法减轻热销商品的负载,对于火车票来说,可以认为是大城市的某些主干线上的车票。这就需要使用数据镜像来减轻负载。使用数据镜像,你必然要使用负载均衡,在后端,我们可能很难使用像路由器上的负载均衡器,因为那是均衡流量的,因为流量并不代表服务器的繁忙程度。因此,我们需要一个任务分配系统,其还能监控各个服务器的负载情况。

任务分配服务器有一些难点:

  • 负载情况比较复杂。什么叫忙?是CPU高?还是磁盘I/O高?还是内存使用高?还是并发高?还是内存换页率高?你可能需要全部都要考虑。这些信息要发送给那个任务分配器上,由任务分配器挑选一台负载最轻的服务器来处理。
  • 任务分配服务器上需要对任务队列,不能丢任务啊,所以还需要持久化。并且可以以批量的方式把任务分配给计算服务器。
  • 任务分配服务器死了怎么办?这里需要一些如Live-Standby或是failover等高可用性的技术。我们还需要注意那些持久化了的任务的队列如何转移到别的服务器上的问题。

我看到有很多系统都用静态的方式来分配,有的用hash,有的就简单地轮流分析。这些都不够好,一个是不能完美地负载均衡,另一个静态的方法的致命缺陷是,如果有一台计算服务器死机了,或是我们需要加入新的服务器,对于我们的分配器来说,都需要知道的。另外,还要重算哈希(一致性hash可以部分解决这个问题)。

还有一种方法是使用抢占式的方式进行负载均衡,由下游的计算服务器去任务服务器上拿任务。让这些计算服务器自己决定自己是否要任务。这样的好处是可以简化系统的复杂度,而且还可以任意实时地减少或增加计算服务器。但是唯一不好的就是,如果有一些任务只能在某种服务器上处理,这可能会引入一些复杂度。不过总体来说,这种方法可能是比较好的负载均衡。

五、异步、 throttle 和 批量处理

异步、throttle(节流阀) 和批量处理都需要对并发请求数做队列处理的。

  • 异步在业务上一般来说就是收集请求,然后延时处理。在技术上就是可以把各个处理程序做成并行的,也就可以水平扩展了。但是异步的技术问题大概有这些,a)被调用方的结果返回,会涉及进程线程间通信的问题。b)如果程序需要回滚,回滚会有点复杂。c)异步通常都会伴随多线程多进程,并发的控制也相对麻烦一些。d)很多异步系统都用消息机制,消息的丢失和乱序也会是比较复杂的问题。
  • throttle 技术其实并不提升性能,这个技术主要是防止系统被超过自己不能处理的流量给搞垮了,这其实是个保护机制。使用throttle技术一般来说是对于一些自己无法控制的系统,比如,和你网站对接的银行系统。
  • 批量处理的技术,是把一堆基本相同的请求批量处理。比如,大家同时购买同一个商品,没有必要你买一个我就写一次数据库,完全可以收集到一定数量的请求,一次操作。这个技术可以用作很多方面。比如节省网络带宽,我们都知道网络上的MTU(最大传输单元),以态网是1500字节,光纤可以达到4000多个字节,如果你的一个网络包没有放满这个MTU,那就是在浪费网络带宽,因为网卡的驱动程序只有一块一块地读效率才会高。因此,网络发包时,我们需要收集到足够多的信息后再做网络I/O,这也是一种批量处理的方式。批量处理的敌人是流量低,所以,批量处理的系统一般都会设置上两个阀值,一个是作业量,另一个是timeout,只要有一个条件满足,就会开始提交处理。

所以,只要是异步,一般都会有throttle机制,一般都会有队列来排队,有队列,就会有持久化,而系统一般都会使用批量的方式来处理

云风同学设计的“排队系统” 就是这个技术。这和电子商务的订单系统很相似,就是说,我的系统收到了你的购票下单请求,但是我还没有真正处理,我的系统会跟据我自己的处理能力来throttle住这些大量的请求,并一点一点地处理。一旦处理完成,我就可以发邮件或短信告诉用户你来可以真正购票了。

在这里,我想通过业务和用户需求方面讨论一下云风同学的这个排队系统,因为其从技术上看似解决了这个问题,但是从业务和用户需求上来说可能还是有一些值得我们去深入思考的地方:

1)队列的DoS攻击。首先,我们思考一下,这个队是个单纯地排队的吗?这样做还不够好,因为这样我们不能杜绝黄牛,而且单纯的ticket_id很容易发生DoS攻击,比如,我发起N个 ticket_id,进入购票流程后,我不买,我就耗你半个小时,很容易我就可以让想买票的人几天都买不到票。有人说,用户应该要用身份证来排队, 这样在购买里就必需要用这个身份证来买,但这也还不能杜绝黄牛排队或是号贩子。因为他们可以注册N个帐号来排队,但就是不买。黄牛这些人这个时候只需要干一个事,把网站搞得正常人不能访问,让用户只能通过他们来买。

2)对列的一致性?对这个队列的操作是不是需要锁?只要有锁,性能一定上不去。试想,100万个人同时要求你来分配位置号,这个队列将会成为性能瓶颈。你一定没有数据库实现得性能好,所以,可能比现在还差。抢数据库和抢队列本质上是一样的

3)队列的等待时间。购票时间半小时够不够?多不多?要是那时用户正好不能上网呢?如果时间短了,用户不够时间操作也会抱怨,如果时间长了,后面在排队的那些人也会抱怨。这个方法可能在实际操作上会有很多问题。另外,半个小时太长了,这完全不现实,我们用15分钟来举例:有1千万用户,每一个时刻只能放进去1万个,这1万个用户需要15分钟完成所有操作,那么,这1千万用户全部处理完,需要1000*15m = 250小时,10天半,火车早开了。(我并非信口开河,根据铁道部专家的说明:这几天,平均一天下单100万,所以,处理1000万的用户需要十天。这个计算可能有点简单了,我只是想说,在这样低负载的系统下用排队可能都不能解决业务问题

4)队列的分布式。这个排队系统只有一个队列好吗?还不足够好。因为,如果你放进去的可以购票的人如果在买同一个车次的同样的类型的票(比如某动车卧铺),还是等于在抢票,也就是说系统的负载还是会有可能集中到其中某台服务器上。因此,最好的方法是根据用户的需求——提供出发地和目的地,来对用户进行排队。而这样一来,队列也就可以是多个,只要是多个队列,就可以水平扩展了。这样可以解决性能问题,但是没有解决用户长时间排队的问题。

我觉得完全可以向网上购物学习。在排队(下单)的时候,收集好用户的信息和想要买的票,并允许用户设置购票的优先级,比如,A车次卧铺买 不到就买 B车次的卧铺,如果还买不到就买硬座等等,然后用户把所需的钱先充值好,接下来就是系统完全自动地异步处理订单。成功不成功都发短信或邮件通知用户。这样,系统不仅可以省去那半个小时的用户交互时间,自动化加快处理,还可以合并相同购票请求的人,进行批处理(减少数据库的操作次数)。这种方法最妙的事是可以知道这些排队用户的需求,不但可以优化用户的队列,把用户分布到不同的队列,还可以像亚马逊的心愿单一样,通过一些计算就可以让铁道部做车次统筹安排和调整(最后,排队系统(下单系统)还是要保存在数据库里的或做持久化,不能只放在内存中,不然机器一down,就等着被骂吧)。

小结

写了那么多,我小结一下:

0)无论你怎么设计,你的系统一定要能容易地水平扩展。也就是说,你的整个数据流中,所有的环节都要能够水平扩展。这样,当你的系统有性能问题时,“加30倍的服务器”才不会被人讥笑。

1)上述的技术不是一朝一夕能搞定的,没有长期的积累,基本无望。我们可以看到,无论你用哪种都会引发一些复杂性,设计总是在做一种权衡。

2)集中式的卖票很难搞定,使用上述的技术可以让订票系统能有几佰倍的性能提升。而在各个省市建分站,分开卖票,是能让现有系统性能有质的提升的最好方法

3)春运前夕抢票且票量供远小于求这种业务模式是相当变态的,让几千万甚至上亿的人在某个早晨的8点钟同时登录同时抢票的这种业务模式是变态中的变态。业务形态的变态决定了无论他们怎么办干一定会被骂。

4)为了那么一两个星期而搞那么大的系统,而其它时间都在闲着,有些可惜了,这也就是铁路才干得出来这样的事了。

更新2012年9月27日 

 Alexa 统计的12306的PV (注:Alexa的PV定义是:一个用户在一天内对一个页面的多次点击只算一次)

本文转载时请注明作者和出处,请勿于记商业目的

(转载本站文章请注明作者和出处 宝酷 – sou-ip ,请勿用于任何商业用途)

好烂啊有点差凑合看看还不错很精彩 (113 人打了分,平均分: 4.61 )
Loading...

由12306.cn谈谈网站性能技术》的相关评论

  1. 订票其实还有一个特点:各车次的分管铁路局是固定的!如果按铁路局将系统分割,负载将大大分散。就如10086.cn一样,他会要求你先输入手机号后跳转到各个分公司的系统。

  2. 好文章,让没有机会接触大型网络设计的我了解了不少东西。

    “数据镜像的数据一致性可能是个问题,所以我们要吧在单条数据上进行数据分区”
    感觉这句不是很好读啊。并且”吧“是个错字吧。

  3. “网游和QQ在线或是登录时访问的更多的是用户自己的数据”,非游戏从业者,不过感觉游戏里某些公共事件都是在读写公共资源,有时候规模也不小呢;不过副本技术确实极大的缩小了这个规模。

  4. “如,一个畅销商品有1万的库存,我们可以设置10台服务器,每台服务器上有100个库存,这就好像B2C的仓库一样。”应该是1000个库存吧,少了个0

  5. 信息量很足啊。文中提到可以使用缓存,比如现在12306是10分钟更新一次,缓存每10分钟都会失效,刷新缓存带来的峰值要怎么处理?

  6. 铁道部的放票模式不做更改,运力不提升,单靠优化网站还是被骂。
    假设铁道部有能力优化,那么可以预见,在很短的时间内,票就被卖出去了,没有买到票的人就会骂铁道部,票都被黄牛买了。

  7. 我觉得需要注意一点火车票和电子商务的不同,车次是有限的,不像淘宝这样商品无限多,而且业务逻辑简单得多。这样可以很容易的按照车次分区,每个车次是单独的队列,甚至完全可以放在内存,不同车次间不存在锁的问题,即使同车次也可以优化锁粒度。另外,查询结果没必要可刻意要求和实际票务情况同步一致,可以误差一秒钟,查车次和查余票分开,这样90%的查询时可以缓存的。假设车票在开票10分钟内就被抢完, 根据每列车的座位数和每个座位被卖的次数,可以估算每个车次,每秒要处理几个请求,实际也没几个。

    另外不同于电子商务的库存,每个座位可以被卖几次,用位运算实现很简单。

    人们之所以用外挂刷票,因为网站烂,登陆难,下单难,付款难等等,如果订票过程流畅,外挂自然就没人用了,再加上简单可靠的防刷新和限流措施,应付现在的量没问题,铁道部的数据不可信,看他们说他们处理的是世界顶尖的难题就知道。

  8. “1)占住库存,2)支付(可选),3)扣除库存的操作。” 请问博主您认为12306的订票环节,占住库存这个操作发生在哪个步骤?

  9. 技术方面不懂,不过我认为对于12306网站的库存管理,和普通B2C的电商库存管理,有很多不一样的地方
    1. 春运期间,运力不足,订单始终大于库存,但库存是固定的,即车票的最大限额。
    2.闲暇时间,订单小于库存,但车次固定,座位固定,库存也是固定的,即便是一个乘客,也会开一班列车
    铁道部几乎不用考虑订单和库存之间的供求关系,普通电商过于看重库存管理,是因为害怕库存积压过多,直接影响到企业资金链的运行,而这个问题对于铁道部根本不存在,铁道部只要考虑怎么把固定的车票数量快速,流畅,均匀的分发到每位乘客手里就OK了。

    而且我感觉,这么多年应付春运的经验,铁道部对于减轻售票压力的方案也会很成熟的,不过肯定都没有用在这个网站上面上。

  10. @buzzlight

    因为无票了,用户不甘心,反复刷——访问压力大10倍
    因为网页慢、死,所以用户不停的刷——访问压力大100倍
    这是恶性循环:越是慢,访问量越大

    如果,网页流畅了,哪怕还是无票,就不存在这99倍的刷新了,而只是10倍的刷新
    这是良性循环:越是快,访问量反而少了

  11. 带宽、CPU、存储都不是紧缺资源,一切的根源在于票太少人太多。一到春运运量能翻好几倍,运力只能提升一倍还不到。更好的系统是必须的,但是买不到票还是挨骂。
    一个可以考虑的办法是:限制300公里以内的短程票,分流到公路客运去,这样可以缓解一点点压力。
    最好能依据统计分析来确定:最小的瓶颈在哪。
    可是,铁老大基本上是无视的,他们认为丫屁民老百姓就该受罪。

  12. 查询和下单等操作用到的数据,应该是从铁道部客票系统已有的数据接口来直接获取数据。12306.cn和客票系统共享以前的老数据库。老旧的系统,必然适应不了现在的春运的变态需求。文中谈及的数据库优化的技术,目前来说12306.cn无能为力。

  13. 宝酷 :
    发生在你update数据库的时候。票量=票量-1的时候。

    那么是不是隐含这个意思:针对某个车次有一条数据库记录用于登记剩余的车票,导致订购某车次的所有订单都要等待锁定这条记录并且更新?如果是这么设计的,确实有点那啥。一般来说一个车次的票量有限,完全可以用一个in memory的test-and-set(reduce)的操作来进行控制,热门车次的票量很快就会降低到零,后面的订单都test不过去,可以直接拒绝了。

    1. 并发下的数据一致性。放在内存里也一样要上锁做互斥。数据库自己本来也有缓存技术,其也是放在内存里的。

  14. 我觉得很多人没用过这个网站就来发表意见,这个网站虽然反复的提示用户太多稍后再试,可是绝对没有说挂掉或者慢的情况。只要登陆进去,订单成功提交,后续过程基本没有页面慢死的情况。估计他是直接从请求中抽取一部分人登陆来控制在线用户数量,然后再提交的订单中抽出一部分进入付款来控制售票速度。

  15. 宝酷 :
    并发下的数据一致性。放在内存里也一样要上锁做互斥。数据库自己本来也有缓存技术,其也是放在内存里的。

    (1)数据库锁不可怕,大量订单都要锁定同一资源才可怕
    (2)用数据库的锁来做票量更新和统计,带上事务就要慢好几拍;如果这个票量更新要和每笔订单的事务合并提交,那就更要慢上N倍。

  16. 我们都知道,铁道部不能满足所有人的要求,所以这样一个系统如何实现相对公平性,特别是这次对于电脑操作不会或较弱的人就不公平。
    比如如果系统采用了排队系统后,不从技术角度考虑, 我这里还有几个问题想不通。

    1. 什么时候开始排队,因为大家知道票是上午十点或下午三点出票。
    这个队伍是一直存在,从系统运行时起。还是每天重新排。
    如果每天重新排,在重排的那一刻,还在系统里的人如何理?我想这里大部分人是踢出来,不然重排就没意义了。
    如果队伍一直存在,进入的人是可以永远在里面,还是有策略的踢出来。这里 永远在里面应该不可能。
    如果有策略的踢出来,比如过一小时踢出来,那如果我要买的票在三点出票,我会想我要在两点多一点进入系统,
    而买票的人应该都是这种想法,那我应该什么时候开始排队,才能保证我能在两点多一点进入系统,天哪,感觉这个无解,绝望!

    2. 假如队伍会在每天清空并在每天三点开始排队,但在排队的那一刻起,领到的号靠前的条件是什么?
    应该是手速和网速。如果这样的话,我们可以看看排在队伍前面的是些什么人:
    程序刷的, 游戏高手, IT重业人员, 都市白领, 普通受过教育接触计算机的人 文化低(对应操作计算机的能力)的外来务工人员。
    程序刷可以禁,但效果如何就不清楚了。

    如果是这样的话,与现有系统比,不同之处就在于
    现有系统在人们试了无数次后,给人绝望
    而排队后,一开始就给人绝望,你的号码是1000000,在你的前面还有999999人等待处理。

    对于一个具体的会操作电脑的普通人而言:
    现有系统:试了无数次,网页崩溃无数次,拼尽了耐心,终于买到了一张票。
    排队系统: 放弃吧,你在这买不到票

    如果开始排队算作比赛的话,那就是职业运动员和业余运动员的
    当然,我绝对不是在说现有的系统好!我只是在说我们所有的技术都作好了,还是不能从业务角度实现它的合理公平性。
    没事,瞎想的!

  17. 把公款吃喝的钱省下来,够做 N 次春运订票模拟测试了,也就不难发现问题并解决了

  18. “那么,这1千万用户全部处理完,需要1000*15m = 250小时,10天半,火车早开了。”
    以前都是人工排队的时候, 春运又是如何处理过来的? 难道会是因为排队来不及, 而火车开着空车走的吗?
    实际上, 我认为, 只需要把排队搬到网上来, 多开些窗口, 并使用一些防止黄牛刷队列的技术(这个方法可以有很多), 网络定票系统就够了, 其它都是多想.

  19. @kino
    所以我觉得正确的方法其实是抽奖,在所有请求中抽奖,中奖的登陆入系统,在所有订单请求中抽奖,中奖的进入支付。这样比排队系统公平很多,每个订单都有中奖的机会。

  20. 云风的方案可靠就表现在把现实中的购火车票排队系统通过网络来实现, 效率肯定要比现实排队高多了.
    先排到队, 然后再查询, 再买票…整体火车购票系统的需求不就是这样吗?
    另外, 负载小, 压力小, 实现简单靠谱.

  21. 你想的太复杂了, 典型的程序员思维, 现实中的排队怎么会比网络队列高效呢? 就像云风说的, 排到队的, 每个队列的后台用人工一对一服务都处理的过来…
    @宝酷

  22. aqssxlzc :
    我觉得很多人没用过这个网站就来发表意见,这个网站虽然反复的提示用户太多稍后再试,可是绝对没有说挂掉或者慢的情况。只要登陆进去,订单成功提交,后续过程基本没有页面慢死的情况。估计他是直接从请求中抽取一部分人登陆来控制在线用户数量,然后再提交的订单中抽出一部分进入付款来控制售票速度。

    也就是说……他们已经用了云风那种系统了,只是具体细节可能稍微不同。

  23. “集中式的卖票很难搞定,使用上述的技术可以让订票系统能有几佰倍的性能提升。而在各个省市建分站,分开卖票,是能让现有系统性能有质的提升的最好方法。”
    显然是忽悠不懂技术的,

  24. 文章中一堆”可能“,技术对比不够深入,B2C,亚马逊,淘宝,QQ和网游。看标签云就能知道是研究啥的

  25. 我认为铁道部的一定都知道上文的所有东西,因为我这样一般的人就知道了,也都会放进去考虑,我的系统正好是跨旧系统查询与追求效能,与铁道部需求很像,当然流量差很多。
    我想主要的问题应该是当初估计尖峰流量是一亿,最后来了十亿,第二是后端系统承受不住,或是交换资料的部份承受不住,因为后端系统是内网旧系统,新旧系统沟通还要兼顾效能会有极大挑战,就算一般采用异步MQ等方式,但是量那么大可能也是吃不完,总不能下单后十小时才给结果。
    不过这篇文章很值得想开发大系统的人去思考一下,我想还是要经过这些问题的洗礼后自然就会了,我就是这样系统搞挂几次, PM下台几个就会了,反正怎么换也不会换掉技术人员。铁道部的人下次出来应该也都很强了,没有经过这些问题真的死过的,也没人会要你去设计这类的系统。

  26. 写的非常好,偶有空逐个了解下你写的每一个技术,值得学习,致敬!!!

  27. 我看到的几点如下:
    第一,从访问结果来看12306.cn已经使用了CDN网络,提供商名字忘记了,可以查出来
    第二,从访问动态页面的结果看,12306.cn用的应该是ngnix+Jboss
    第三,12306.cn和奥运订票系统一样由太极集团制作
    第四,从访问结果看CDN基本上没出什么问题,每次500都是由Jboss返回的。个人理解,是jboss挂了

  28. @M Jwo
    补充,那么多人用hibernate的甚至EJB,这样的系统这类O/RM的我的经验是挡不住的,还是直接弄memcache/Coherence, 資料庫用 partition table等比较稳

  29. 楼主最后提出的方案,技术上是最好的,但政治上有风险…

    想想看, 铁道部已经被说成”最大的黄牛”多少年了, 如果搞成这种订单延迟处理的方式, 肯定会被说成”黑幕”放票…

  30. 大麦头 :

    宝酷 :
    并发下的数据一致性。放在内存里也一样要上锁做互斥。数据库自己本来也有缓存技术,其也是放在内存里的。

    (1)数据库锁不可怕,大量订单都要锁定同一资源才可怕
    (2)用数据库的锁来做票量更新和统计,带上事务就要慢好几拍;如果这个票量更新要和每笔订单的事务合并提交,那就更要慢上N倍。

    前两天翻了一下大家的评价,现在最大的瓶颈是 提交订单非常慢,非常困难,其次是支付接口经常出问题;登录和查询不是那么紧。
    提交订单瓶颈的原因我估计是,铁路内部采用了网络支付限制,大约是1万张(忘记从哪里看到的),但是可能同时就是n多人同时抢票,这样,客观造成了一个排队效应;排在后面的人还要等前面的人去支付,再去更新数据库,把事务加到里面了,那是相当慢。
    解决问题的首要一步是确定这个系统达到什么效果,铁道部定时发票的节奏是不可能改变的,那套数据库也是不可能改变的,支付银行你也是没办法去改变的。僧多粥少,刷票也是不可避免的,你也不可能做到人人上去就能买到票。这个系统建设的目的就是,用户能快速登录,查询,如果有票能够很快买到,或者很快被告知不被买到,而且能够避免黄牛。那么,这个系统就是成功的。
    反过来看看,现在的网站呢?用户无法感知是否成功,明明看了有票就是提交不上,提交上了半天不响应,然后说不让你买了,好不容易买了交了钱了,支付那边又超时了。
    所以说,我对12306的想法是:
    1.找个好的产品经理,像用户看到票有然后就是提交不上去,一点其他可供感知的东西都没有,这种设计水平我就不说了;
    2.优化网络流程,例如可以把网络支付做到网站里,或者完全是异步支付;网络放票,可以做成按片不定时放,上午放上海,下午放杭州,随机放票,避免造成过多的并发;
    3.再就是做好负载均衡,共享数据信息之类。其实我觉得查询之类的可以用阿里云之类的来搞定啊,春运期间,搞定核心数据流程就OK了。

  31. 按车次做服务分区不一定每个车次建一个数据库,memory或者redis都可以,座位号是key,每个座位用bit集合标示某一站有没有卖。利用redis的原子操作,比数据库简单而且高效 @绝望生鱼片

  32. 1. Tim会接任Apple的CEO了,因为他搞定了苹果的库存问题
    这个完全是两回事.

    2.集中在早8点到10点,每秒PV在高峰时上千万
    这个数字有问题

    3.去年双11节,淘宝的每小时的订单数大约在60万左右
    错,淘宝峰值是278万笔/小时

    4. 淘宝要比B2C的网站要简单得多,因为没有仓库 
    这个是臆测。复杂度一样的。

    5. 数据镜像
    至少对于Oracle来说,目前无法做到有效的镜像,镜像更多是为了数据安全可靠

    6. 数据一致性才是真正的性能瓶颈
    数据一致性并非业务难题,并发能力支撑才是难题

    1. 1)我读的是乔布斯传里的说法。
      2)关于峰值,愿闻其详。
      3)峰值278万没有问题,我还是说,淘宝的系统比较简单,因为没有他库。不过淘宝当时已经在极限上了,准备关一些省市流量了。
      4)看来你不知仓库的压力。复杂度完全不一样。这点你外行了。
      5)数据镜像有即可以保持负载也可是为了高可用性。
      6)数据一致性是很耗性能的,并发的的难点是操作那些共享的数据,这你应该知道啊。

      谢谢你的回复,不过没有看到你的思考哦。呵呵。

  33. 琢磨着这两天博主就会讨论这个热点问题,结果今天就看到了。 还有一部分业务是关于退票和改签的, 可以搞一个退票,改签票的提醒机制,比如注册到一个排队队列,如果有退,改签的票出来,就可以发个短信提醒队列里的人。

  34. “而在各个省市建分站,分开卖票,是能让现有系统性能有质的提升的最好方法。”

    能详细说说这个数据切分方案吗?个人感觉按省市很难分啊,因为火车是途径各省市的,不是各省市固定票额啊。
    比如一趟北京始发,西安终点的车,如果在北京卖出了一张北京到郑州的某座位车票,那么这个座位接下来只能从郑州以西开始卖了,所以在郑州买票的时候,就要去查在之前的站到底卖出了哪些车票,区间是怎么样的。

    个人觉得,12306本身就应该是作为一个终端接入铁路原有购票系统,本质上来说,和窗口,电话处于同一位置,都需要去中心查询,下单,但网站的特殊性带来了麻烦,不像窗口——有排队,电话——超出服务可以占线,上述2种都可以控制住流量,至少不会引起自身的崩溃。而对于网站,一般的情况都应该提供7*24的服务,频频不能提供服务,自然会引来很多骂声。

    对于铁道部来说,现在如果去改造原有购票系统,牵扯面感觉比较广,先不说开发成本,光是回归窗口和电话业务估计就需要半年。所以,只能好好改造12306了

  35. 这个世界任何事物都是相对的。有阴就有样。同样,有排队的地方就有黄牛,排队和黄牛是两个对立相生的。我觉得。铁道部花那么大力气去搞个订票网站,很难免有刷票,外挂什么的。而且对那么大的高并发访问需求,还要注意锁定资源,支付什么的。这是给自己找难题。
    为什么不这样?铁道部就只管开放查询,订票,退票的接口。把接口开放出来,给其他的B2C,比如淘宝,京东,易讯什么的有经验的电商。然后。铁道部严格把关有订票资格的网站,只让有资格的电商或代理商才能访问接口?
    我的思路就是开放! 尽量把难题开放出去。只要把握住关键的就行了。

发表回复

您的电子邮箱地址不会被公开。 必填项已用*标注