來(lái)源:http:///gauW 方法1: 直接使用數(shù)據(jù)庫(kù)提供的SQL語(yǔ)句
方法2: 建立主鍵或唯一索引, 利用索引(假設(shè)每頁(yè)10條)
方法3: 基于索引再排序
方法4: 基于索引使用prepare 第一個(gè)問(wèn)號(hào)表示pageNum,第二個(gè)?表示每頁(yè)元組數(shù)
方法5: 利用MySQL支持ORDER操作可以利用索引快速定位部分元組,避免全表掃描 比如: 讀第1000到1019行元組(pk是主鍵/唯一鍵). SELECT * FROM your_table WHERE pk>=1000 ORDER BY pk ASC LIMIT 0,20 方法6: 利用'子查詢/連接+索引'快速定位元組的位置,然后再讀取元組. 比如(id是主鍵/唯一鍵,藍(lán)色字體時(shí)變量) 利用子查詢示例:
利用連接示例: SELECT * FROM your_table AS t1 JOIN (SELECT id FROM your_table ORDER BY id desc LIMIT ($page-1)*$pagesize AS t2 WHERE t1.id <= t2.id ORDER BY t1.id desc LIMIT $pagesize; mysql大數(shù)據(jù)量使用limit分頁(yè),隨著頁(yè)碼的增大,查詢效率越低下。 測(cè)試實(shí)驗(yàn) 1. 直接用limit start, count分頁(yè)語(yǔ)句, 也是我程序中用的方法:
當(dāng)起始頁(yè)較小時(shí),查詢沒(méi)有性能問(wèn)題,我們分別看下從10, 100, 1000, 10000開(kāi)始分頁(yè)的執(zhí)行時(shí)間(每頁(yè)取20條)。 如下: select * from product limit 10, 20 0.016秒 select * from product limit 100, 20 0.016秒 select * from product limit 1000, 20 0.047秒 select * from product limit 10000, 20 0.094秒 我們已經(jīng)看出隨著起始記錄的增加,時(shí)間也隨著增大, 這說(shuō)明分頁(yè)語(yǔ)句limit跟起始頁(yè)碼是有很大關(guān)系的,那么我們把起始記錄改為40w看下(也就是記錄的一般左右)
再看我們?nèi)∽詈笠豁?yè)記錄的時(shí)間 select * from product limit 866613, 20 37.44秒 像這種分頁(yè)最大的頁(yè)碼頁(yè)顯然這種時(shí)間是無(wú)法忍受的。 從中我們也能總結(jié)出兩件事情:
2. 對(duì)limit分頁(yè)問(wèn)題的性能優(yōu)化方法 利用表的覆蓋索引來(lái)加速分頁(yè)查詢 我們都知道,利用了索引查詢的語(yǔ)句中如果只包含了那個(gè)索引列(覆蓋索引),那么這種情況會(huì)查詢很快。 因?yàn)槔盟饕檎矣袃?yōu)化算法,且數(shù)據(jù)就在查詢索引上面,不用再去找相關(guān)的數(shù)據(jù)地址了,這樣節(jié)省了很多時(shí)間。另外Mysql中也有相關(guān)的索引緩存,在并發(fā)高的時(shí)候利用緩存就效果更好了。 在我們的例子中,我們知道id字段是主鍵,自然就包含了默認(rèn)的主鍵索引?,F(xiàn)在讓我們看看利用覆蓋索引的查詢效果如何。 這次我們之間查詢最后一頁(yè)的數(shù)據(jù)(利用覆蓋索引,只包含id列),如下:
相對(duì)于查詢了所有列的37.44秒,提升了大概100多倍的速度 那么如果我們也要查詢所有列,有兩種方法,一種是id>=的形式,另一種就是利用join,看下實(shí)際情況: SELECT * FROM product WHERE ID > =(select id from product limit 866613, 1) limit 20 查詢時(shí)間為0.2秒! 另一種寫法
查詢時(shí)間也很短! 3. 復(fù)合索引優(yōu)化方法 MySql 性能到底能有多高?MySql 這個(gè)數(shù)據(jù)庫(kù)絕對(duì)是適合dba級(jí)的高手去玩的,一般做一點(diǎn)1萬(wàn)篇新聞的小型系統(tǒng)怎么寫都可以,用xx框架可以實(shí)現(xiàn)快速開(kāi)發(fā)。可是數(shù)據(jù)量到了10萬(wàn),百萬(wàn)至千萬(wàn),他的性能還能那么高嗎?一點(diǎn)小小的失誤,可能造成整個(gè)系統(tǒng)的改寫,甚至更本系統(tǒng)無(wú)法正常運(yùn)行!好了,不那么多廢話了。 用事實(shí)說(shuō)話,看例子: 數(shù)據(jù)表 collect ( id, title ,info ,vtype) 就這4個(gè)字段,其中 title 用定長(zhǎng),info 用text, id 是逐漸,vtype是tinyint,vtype是索引。這是一個(gè)基本的新聞系統(tǒng)的簡(jiǎn)單模型?,F(xiàn)在往里面填充數(shù)據(jù),填充10萬(wàn)篇新聞。最后collect 為 10萬(wàn)條記錄,數(shù)據(jù)庫(kù)表占用硬1.6G。 OK ,看下面這條sql語(yǔ)句: select id,title from collect limit 1000,10; 很快;基本上0.01秒就OK,再看下面的
從9萬(wàn)條開(kāi)始分頁(yè),結(jié)果? 8-9秒完成,my god 哪出問(wèn)題了?其實(shí)要優(yōu)化這條數(shù)據(jù),網(wǎng)上找得到答案??聪旅嬉粭l語(yǔ)句: select id from collect order by id limit 90000,10; 很快,0.04秒就OK。 為什么?因?yàn)橛昧薸d主鍵做索引當(dāng)然快。網(wǎng)上的改法是:
這就是用了id做索引的結(jié)果??墒菃?wèn)題復(fù)雜那么一點(diǎn)點(diǎn),就完了??聪旅娴恼Z(yǔ)句 select id from collect where vtype=1 order by id limit 90000,10; 很慢,用了8-9秒! 到了這里我相信很多人會(huì)和我一樣,有崩潰感覺(jué)!vtype 做了索引了???怎么會(huì)慢呢?vtype做了索引是不錯(cuò),你直接 select id from collect where vtype=1 limit 1000,10; 是很快的,基本上0.05秒,可是提高90倍,從9萬(wàn)開(kāi)始,那就是0.05*90=4.5秒的速度了。和測(cè)試結(jié)果8-9秒到了一個(gè)數(shù)量級(jí)。 從這里開(kāi)始有人提出了分表的思路,這個(gè)和dis #cuz 論壇是一樣的思路。思路如下: 建一個(gè)索引表: t (id,title,vtype) 并設(shè)置成定長(zhǎng),然后做分頁(yè),分頁(yè)出結(jié)果再到 collect 里面去找info 。 是否可行呢?實(shí)驗(yàn)下就知道了。 10萬(wàn)條記錄到 t(id,title,vtype) 里,數(shù)據(jù)表大小20M左右。用
很快了?;旧?.1-0.2秒可以跑完。為什么會(huì)這樣呢?我猜想是因?yàn)閏ollect 數(shù)據(jù)太多,所以分頁(yè)要跑很長(zhǎng)的路。limit 完全和數(shù)據(jù)表的大小有關(guān)的。其實(shí)這樣做還是全表掃描,只是因?yàn)閿?shù)據(jù)量小,只有10萬(wàn)才快。OK, 來(lái)個(gè)瘋狂的實(shí)驗(yàn),加到100萬(wàn)條,測(cè)試性能。加了10倍的數(shù)據(jù),馬上t表就到了200多M,而且是定長(zhǎng)。還是剛才的查詢語(yǔ)句,時(shí)間是0.1-0.2秒完成!分表性能沒(méi)問(wèn)題? 錯(cuò)!因?yàn)槲覀兊膌imit還是9萬(wàn),所以快。給個(gè)大的,90萬(wàn)開(kāi)始 select id from t where vtype=1 order by id limit 900000,10; 看看結(jié)果,時(shí)間是1-2秒!why ? 分表了時(shí)間還是這么長(zhǎng),非常之郁悶!有人說(shuō)定長(zhǎng)會(huì)提高limit的性能,開(kāi)始我也以為,因?yàn)橐粭l記錄的長(zhǎng)度是固定的,mysql 應(yīng)該可以算出90萬(wàn)的位置才對(duì)???可是我們高估了mysql 的智能,他不是商務(wù)數(shù)據(jù)庫(kù),事實(shí)證明定長(zhǎng)和非定長(zhǎng)對(duì)limit影響不大?怪不得有人說(shuō)discuz到了100萬(wàn)條記錄就會(huì)很慢,我相信這是真的,這個(gè)和數(shù)據(jù)庫(kù)設(shè)計(jì)有關(guān)! 難道MySQL 無(wú)法突破100萬(wàn)的限制嗎???到了100萬(wàn)的分頁(yè)就真的到了極限? 答案是: NO 為什么突破不了100萬(wàn)是因?yàn)椴粫?huì)設(shè)計(jì)mysql造成的。下面介紹非分表法,來(lái)個(gè)瘋狂的測(cè)試!一張表搞定100萬(wàn)記錄,并且10G 數(shù)據(jù)庫(kù),如何快速分頁(yè)! 好了,我們的測(cè)試又回到 collect表,開(kāi)始測(cè)試結(jié)論是: 30萬(wàn)數(shù)據(jù),用分表法可行,超過(guò)30萬(wàn)他的速度會(huì)慢道你無(wú)法忍受!當(dāng)然如果用分表+我這種方法,那是絕對(duì)完美的。但是用了我這種方法后,不用分表也可以完美解決! 答案就是:復(fù)合索引! 有一次設(shè)計(jì)mysql索引的時(shí)候,無(wú)意中發(fā)現(xiàn)索引名字可以任取,可以選擇幾個(gè)字段進(jìn)來(lái),這有什么用呢? 開(kāi)始的
這么快就是因?yàn)樽吡怂饕?,可是如果加了where 就不走索引了。抱著試試看的想法加了 search(vtype,id) 這樣的索引。 然后測(cè)試 select id from collect where vtype=1 limit 90000,10; 非常快!0.04秒完成! 再測(cè)試:
非常遺憾,8-9秒,沒(méi)走search索引! 再測(cè)試:search(id,vtype),還是select id 這個(gè)語(yǔ)句,也非常遺憾,0.5秒。 綜上:如果對(duì)于有where 條件,又想走索引用limit的,必須設(shè)計(jì)一個(gè)索引,將where 放第一位,limit用到的主鍵放第2位,而且只能select 主鍵! 完美解決了分頁(yè)問(wèn)題了。可以快速返回id就有希望優(yōu)化limit , 按這樣的邏輯,百萬(wàn)級(jí)的limit 應(yīng)該在0.0x秒就可以分完??磥?lái)mysql 語(yǔ)句的優(yōu)化和索引時(shí)非常重要的! |
|