TokuDB和InnoDB的读写分析与比较
我们知道,在MySQL单机版本里面最流行的也是唯一支持全事务的引擎为INNODB。 其特点是数据本身是用B-TREE来组织,数据本身即是庞大的根据主键聚簇的B-TREE索引。 所以在这点上,写入速度就会有些降低,因为要每次写入要用一次IO来做索引树的重排。 特别是当数据量本身比内存大很多的情况下,CPU本身被磁盘IO纠缠的做不了其他事情了。 这时我们要考虑如何减少对磁盘的IO来排解CPU的处境,那么如何做呢? (当然,如果数据足够放到内存里面,这些事情大可不必考虑。)
1. 可以把INNODB 个PAGE增大?(默认16KB)但是增大也就带来了一些缺陷。 比如,对磁盘进行CHECKPOINT的时间将延后。
2. 把日志文件放到更快速的磁盘上?比如SSD?
其实这时,我们可以考虑用另外一个知名的引擎TokuDB。 谁叫MySQL 天生支持随意可插拔呢!
TokuDB 其实本身数据存储用到了B-TREE的变形版本Fractal-Tree。 Fractal-Tree 也就是在B-Tree原来的非叶子节点增加了一个缓存,无论对这个树怎么操作,都是一个模式:即父亲节点的缓存满了,就流淌到儿子节点,然后儿子节点的缓存满了后,再次流淌到孙子节点等等一系列最后到了叶子节点,然后等到叶子节点的PAGE足够大的时候,进行CHECK POINT。当然不管如何做缓存,每次事务后,还是得首先刷新到REDO 日志,要不数据一致性就很难保证了。
接下来,这里测试下同样的环境InnoDB和TokuDB的性能差异。当然,我没有做压力测试,只是简单的手动执行了几次SQL而已。
(5.6.10-enterprise-commercial-advanced-log MySQL Enterprise Server - Advanced Edition (Commercial))
用来导入的文件大概为35M。
1. INNODB. 对应的参数: innodb_buffer_pool_size=32M bulk_insert_buffer_size=20M query_cache_size = 0 导入性能:(InnoDB在这里慢在CPU一直忙于IO置换。) mysql> load data infile '/tmp/t3_push.csv' into table t3_push; Query OK, 955527 rows affected (30 min 44.03 sec) Records: 955527 Deleted: 0 Skipped: 0 Warnings: 0 读性能:(读的性能还是很好的,这里用到5.6的ICP以及MRR特性。) mysql> select count(*) from t3_push where rank1 < 20 and rank2 < 30; +----------+ | count(*) | +----------+ | 49 | +----------+ 1 row in set (0.06 sec) 调大 innodb_buffer_pool=128M mysql> load data infile '/tmp/t3_push.csv' into table t3_push; Query OK, 955527 rows affected (38.72 sec) Records: 955527 Deleted: 0 Skipped: 0 Warnings: 0 调大后,其实导入性能还是不错的。
1. INNODB. 对应的参数: innodb_buffer_pool_size=32M bulk_insert_buffer_size=20M query_cache_size = 0 导入性能:(InnoDB在这里慢在CPU一直忙于IO置换。) mysql> load data infile '/tmp/t3_push.csv' into table t3_push; Query OK, 955527 rows affected (30 min 44.03 sec) Records: 955527 Deleted: 0 Skipped: 0 Warnings: 0 读性能:(读的性能还是很好的,这里用到5.6的ICP以及MRR特性。) mysql> select count(*) from t3_push where rank1 < 20 and rank2 < 30; +----------+ | count(*) | +----------+ | 49 | +----------+ 1 row in set (0.06 sec) 调大 innodb_buffer_pool=128M mysql> load data infile '/tmp/t3_push.csv' into table t3_push; Query OK, 955527 rows affected (38.72 sec) Records: 955527 Deleted: 0 Skipped: 0 Warnings: 0 调大后,其实导入性能还是不错的。来自:http://blog.csdn.net/yueliangdao0608/article/details/21230627