当数据量猛增的时候,大家都会选择库表散列等等方式去优化数据读写速度。笔者做了一个简单的尝试,1亿条数据,分100张表。具体实现过程如下。 首先创建100张表:
下面说一下我的分表规则,full_code作为主键,我们对full_code做hash 函数如下:
这样插入数据前通过get_hash_table获取数据存放的表名。 最后我们使用merge存储引擎来实现一张完整的code表
这样我们通过select * from code就可以得到所有的full_code数据了。 |
Archiver|手机版|小黑屋|Discuz!扩展中心 - 杭州富迪文化艺术策划有限公司 版权所有 ( 浙ICP备14042422号-1 )|网站地图QQ机器人
GMT+8, 2025-5-3 10:21 , Processed in 0.277023 second(s), 11 queries , Gzip On, Redis On.
Powered by Discuz! X5.0
© 2001-2025 Discuz! Team.|IP地址位置数据由 纯真CZ88 提供支持