訂閱
糾錯(cuò)
加入自媒體

如何用Python網(wǎng)絡(luò)爬蟲(chóng)獲取頭條所有好友信息?

前言

大家好,我是黃偉。今日頭條我發(fā)覺(jué)做的挺不錯(cuò),啥都不好爬,出于好奇心的驅(qū)使,小編想獲取到自己所有的頭條好友,

看似簡(jiǎn)單,那么情況確實(shí)是這樣嗎,下面我們來(lái)看下吧。

項(xiàng)目目標(biāo)

獲取所有頭條好友昵稱

項(xiàng)目實(shí)踐

編輯器:sublime text 3

瀏覽器:360瀏覽器,順帶一個(gè)頭條號(hào)

實(shí)驗(yàn)步驟1.登陸自己的頭條號(hào):

可以看到2599,不知道誰(shuí)會(huì)是下一個(gè)幸運(yùn)觀眾了,哈哈哈哈哈,下面我們老樣子,打開(kāi)瀏覽器,因?yàn)槲覀兪且@取到所有的好友啊,所以我們得先進(jìn)入粉絲列表看看有哪些粉絲吧:

然后右鍵--審查元素,來(lái)一波騷操作,定位粉絲的位置:

接下來(lái)我們要做的就是獲取粉絲的昵稱,從上面的圖可以看出我余下的粉絲都隱藏在ajax加載的動(dòng)態(tài)頁(yè)面中,如果我不進(jìn)行滾動(dòng)則看不到后面的粉絲,那怎么辦呢?不過(guò)不要緊,遇到問(wèn)題先不慌,淡定。

2.查找粉絲列表的接口

打開(kāi)network:

然后你會(huì)發(fā)現(xiàn)有很多get_info_list 中文譯為獲取信息列表,我想這應(yīng)該很重要,打開(kāi)一看:

媽媽耶,這啥玩意,嚇得我都不會(huì)說(shuō)話了。

3.加載所有請(qǐng)求

于是只好滿滿滾動(dòng)鼠標(biāo)滾輪期待發(fā)現(xiàn)點(diǎn)什么,終于,功夫不負(fù)苦心人,終于讓我滾到了有用的結(jié)果:

于是我在看看它的頭部信息,有重大發(fā)現(xiàn):

4.找接口分析內(nèi)容,轉(zhuǎn)換Unicode

可以看到用戶的昵稱使用Unicode碼表示,所以我們需要將他們轉(zhuǎn)換為中文,關(guān)于Unicode轉(zhuǎn)中文,兩種方法:

ss='u4e00u8defu5411u897f8635'print((ss.encode('utf8')).decode())print(eval('u"%s"' % ss))

沒(méi)毛病,老鐵。

5.獲取頁(yè)面文件

那我們現(xiàn)在就要獲取這個(gè)頁(yè)面的所有結(jié)果啦:

發(fā)現(xiàn)既然和結(jié)果不一樣,這是什么騷操作,好吧,我服了。

6.對(duì)頁(yè)面數(shù)據(jù)進(jìn)行猜解

通過(guò)對(duì)上上個(gè)圖的反復(fù)分析,我發(fā)現(xiàn)一個(gè)很重要的信息,那就是pagesize的值就等于當(dāng)前頁(yè)面所顯示的粉絲的數(shù)量,那小編有2599個(gè)粉絲,那pagesize不就是2599嗎?哈哈,說(shuō)干就干:

然后小編不斷對(duì)頁(yè)面的粉絲進(jìn)行請(qǐng)求:

發(fā)現(xiàn)還是不行啊,跟我們想的背道而馳,在試試,發(fā)現(xiàn)最多只有200才行的通:

其實(shí)這個(gè)情況下,已經(jīng)捕捉到所有請(qǐng)求了,只是那些粉絲每28個(gè)粉絲分為一個(gè)請(qǐng)求,而且每個(gè)請(qǐng)求的時(shí)間戳不一,其實(shí)我們可以用三方軟件來(lái)捕獲這些請(qǐng)求響應(yīng)然后將他們加入到程序中,我們好對(duì)他們進(jìn)行一個(gè)請(qǐng)求分析,最后將他們保存為json格式的文件,然后我們獲取到他們對(duì)應(yīng)的值。

7.打印粉絲名稱和響應(yīng)正常的網(wǎng)址

我們還可以將所有請(qǐng)求中cursor最小的值和最大值拿出來(lái)分析,通過(guò)查找我找到,

cursor取值:1570591241~1589072863

這個(gè)信息很重要,接下來(lái)我們就可以依次對(duì)這些cursor構(gòu)建請(qǐng)求了:

我們將所有能成功請(qǐng)求的頁(yè)面信息輸入到1.txt 文件中去,然后我們?cè)趯?duì)1.txt中的網(wǎng)頁(yè)內(nèi)容逐個(gè)讀取。然后我們獲取他們的json文件保存下來(lái),最后直接把他讀取出來(lái)就ok啦。由于時(shí)間的關(guān)系,在此我只演示上圖中出現(xiàn)的兩百條信息,我們把它保存為json文件然后用json 模塊進(jìn)行讀。

json是系統(tǒng)自帶的模塊,所以直接導(dǎo)入json模塊并讀取文件:

終于全部打印出來(lái)啦,哈哈哈,然后我們就可以去獲取我們自己關(guān)注了哪些人,如果有人把我們?nèi)∠P(guān)注了,那么我們也相應(yīng)取消對(duì)他們的關(guān)注。通過(guò)一段時(shí)間的爬取,終于爬的差不多了,不過(guò)我想應(yīng)該沒(méi)有爬完,因?yàn)榫W(wǎng)站有反爬:

項(xiàng)目總結(jié)

通過(guò)對(duì)今日頭條ajax和一些加密數(shù)據(jù)的一些情況使我認(rèn)識(shí)到爬蟲(chóng)這條路真的很遠(yuǎn),不學(xué)js逆向是不可能的。希望大家多多學(xué)習(xí),學(xué)無(wú)止境的。


聲明: 本文由入駐維科號(hào)的作者撰寫,觀點(diǎn)僅代表作者本人,不代表OFweek立場(chǎng)。如有侵權(quán)或其他問(wèn)題,請(qǐng)聯(lián)系舉報(bào)。

發(fā)表評(píng)論

0條評(píng)論,0人參與

請(qǐng)輸入評(píng)論內(nèi)容...

請(qǐng)輸入評(píng)論/評(píng)論長(zhǎng)度6~500個(gè)字

您提交的評(píng)論過(guò)于頻繁,請(qǐng)輸入驗(yàn)證碼繼續(xù)

  • 看不清,點(diǎn)擊換一張  刷新

暫無(wú)評(píng)論

暫無(wú)評(píng)論

人工智能 獵頭職位 更多
掃碼關(guān)注公眾號(hào)
OFweek人工智能網(wǎng)
獲取更多精彩內(nèi)容
文章糾錯(cuò)
x
*文字標(biāo)題:
*糾錯(cuò)內(nèi)容:
聯(lián)系郵箱:
*驗(yàn) 證 碼:

粵公網(wǎng)安備 44030502002758號(hào)