设为首页 - 加入收藏 - 网站地图 欢迎加QQ群 :14364084
当前位置:谭博的博客 > 数据库 > mysql > 正文

关于mysql使用limit时跳过的数据条数过大时的优化

时间:2013-07-15 11:30 来源:未知 标签:mysql limit优化 作者:谭博 阅读:

场景:普通分页需求,每页10条记录, id 有索引

实现分页,我们一般会使用 select * from table   where id >100  limit   a,b   ,  当分页过大时,如达到一万页,此时 a =十万 ,b=10,   虽然此处使用到了索引(不用索引情况会更加糟糕),但是通过索引检索后还是需要回表去取 十万零一十条数据  然后丢掉前十万条, 返回十条,这个代价明显太大了。

 

通常的解决方法是,限制总页数,因为通过没有用户会对一万页后的数据感兴趣,当然也可以通过coreseek sphinx 等实现

 

当然也可以通过sql来优化,下面我们通过一个子查询来实现

select * from table  join  (select id from table where id>100 limit 10000,10) as b  on table.id=b.id

 

在子句select id from table where id>100 limit 10000,10 中 因为列id有索引, 查询时会直接通过索引检索并返回,无需回表查找行。

然后外层的关联操作会直接根据关联id去查库,从而取得数据

 

 

 

  

 

关注微信公众号

微信扫一扫,打赏我

热评文章
    内容不错,支持一下
    评论列表(网友评论仅供网友表达个人看法,并不表明本站同意其观点或证实其描述)