疯狂双十一的全栈技术路线图
双十一是个全民参与的活动,就像航天技术是一个国家的顶尖技术代表,双十一同样也是国内互联网公司顶尖专家和技术的代表,国内的技术社区也一直非常关注其中的故事。专场通过邀请奋战在双十一活动一线的指挥家(架构师、技术总监),分享承载双十一活动背后的架构、运维、交易、秒杀、前端、移动端、支付、订单处理、物流管理、基础设施、数据管理等各种经验。
2014双11全天交易额又创新高,整个系统在双11期间运行平稳。但是你了解吗,有10%的交易落在了阿里巴巴自主研发的OceanBase数据库上面,凭借今年的双11,OceanBase跻身金融数据库领域,同时也证明了阿里巴巴能够利用自己的技术去IOE。我们是如何让OceanBase满足了金融业务对数据库需求,如何实现平滑O2O(Oracle 2 OceanBase)的切换、如何保证交易系统数据一致性、可扩展行以及持续可用能力呢?尽请期待! |
京东商城的交易系统由众多架构复杂的子系统组成,包括网站、购物车、结算、库存、促销和用户等主要集群组成。 本次演讲的内容是高并发、稳定的交易系统的十大架构原则,这些原则是交易系统完成2012年~2014年几次6.18和双11大促销的经验总结。 通过探讨交易系统的架构细节,来阐明这十大原则在真实电商系统中的应用。 |
做架构的工程师,常常会挑战我们自己的架构: 我们的系统什么情况下会挂?假如机房挂了怎么办?一个城市停电了怎么办?业务继续扩大时怎么能扛过去?回答这些问题,对于正在蓬勃发展电商系统尤其重要;从去年开始,我们开始探索异地多活的部署架构,目的是让在多个城市同时支撑用户交易,并且在一个城市所有机房瘫痪情况下,能够在一分钟内恢复所有的交易;众所周知,淘宝是一个承载众多买家和卖家的平台,刚刚过去的双11,我们的交易额达到了571亿,比去年增长57.7%;面对这么疯狂的用户购物狂欢,淘宝是怎么在异地多活的架构下,支撑用户每秒8万笔的交易洪流的? 这个主题会为你解读,淘宝下一代异地多活架构是怎么接受双11的洗礼。 |
话题分个两部分,一部分分享天猫数据对接系统,一部分分享订单流程优化。 小米网入住天猫后就成为了天猫双十一的典型用户,无论天猫双十一,还是天猫的各种促销活动数据都很漂亮,数据对接也随着业务的变化进行了多次方案演进,本次话题的第一部分将分享天猫订单对接系统,在保证健壮性和可扩展性的同时兼顾业务的不断变化。 对于小米网电商系统自身,米粉节、新品发布会、周二开放购买都是对前端峰值系统的考验,同时也是对整个业务链系统的考验。业务模型使得业务链系统多、数据是离散,要保证数据通路的高稳定高可用以及消息的快速分发,这就给订单流程提出了要求。这部分分享数据处理能力的综合权衡。 |