如何优化MySQL几十万上万级的数据
1。数据容量:大约1-3年内有多少数据,每件数据有多少字节;2。数据项:如果有大字段,则这些字段的值是否经常更新;
三.数据查询SQL条件:数据项的列名经常出现在何处、按组、按次子句中介;
4。数据更新类SQL条件:更新或删除WHERE子句中经常出现多少列;
5.sql数量统计的,比如:如何选择:更新+删除:插入=
6。在大表和相关SQL中,每天执行的总量有多大
7中的数据。表:基于更新的业务或基于查询的业务。
您将采用什么数据库物理服务器和8的数据库服务器体系结构
9点怎么样
10。storage engine chooses InnoDB or MyISAM
一般理解以上10个问题,至于如何设计这样大的表,应该是清楚的!
作为优化,如果我们不能如果我们创造一个良好的表更改表结构,这是建议,InnoDB引擎的使用更多的内存,减少磁盘IO负载,因为IO往往是数据库服务器的瓶颈。
此外,如果我们优化索引结构来解决性能问题,我们建议首先修改类SQL语句,使它们更快,只能依赖索引结构。
创建索引的很好,如果读为主,你可以考虑开query_cache。
调整一些参数值:sort_buffer_size,read_buffer_size,read_rnd_buffer_size,join_buffer_size
Others suggest:
1。索引,避免扫描,基于主关键字的搜索,数亿的数据也非常快;
2。反正常设计,在空间上争取时间,避免连接,一些连接操作可以在代码中实现,无需使用数据库来实现;