Lightweight web scraping script. Fetch and download main textual content from the current page, provide special support for novels
< Commentaires sur DownloadAllContent
同求啊,这样只能抓到第一段好烦
我也是,而且,会抓出来乱码,比方说http://www.5k5m.com/book,这个网站的小说
同求,現在小說網好多都是限字數分頁,好煩啊。
同求,現在小說網好多都是限字數分頁,好煩啊。
我很早就添加了内分頁支持了,你更新過了嗎?
有啊,我剛重裝像,https://m.wfxs.tw/xs-37752,他會全下載,不過只下載2/1,2/2全沒下載,所以全只有一半。
標題後面多了>>就代表該章是抓取到的内分頁
你可以再確認下脚本的版本號。
這一片文我下載之後大小是3.20MB,你對比一下大小看看。
之後嘗試下搜索一下“第1章 你們還是用擔架抬下去吧 >>”看看有沒有結果
我知道了,瀏覽器的問題,我用Firefox就是抓不到分頁,Edge可以,謝謝大大的解說,謝謝。
我知道了,瀏覽器的問題,我用Firefox就是抓不到分頁,Edge可以,謝謝大大的解說,謝謝。
我更新了一下,你試試現在FF可以下載內分頁了沒有
一樣,FF還是不會下分頁。
一樣,FF還是不會下分頁。
方便告知一下你用的腳本管理器嗎?
我有試過FF全刪除重裝過
收到,睡覺時間到了,明天我抽時間查一下
我有試過FF全刪除重裝過
奇怪了,我在 FF 96.0.3 + TM 4.13.6136 以及暴力猴最新版上測試了一下,都是可以正常下載内分頁的
不知道也,我Win10(64) + FF 97.0(64)+TM 4.13.6136怎下都不行,改用Edge就可以,可能我的FF被我玩壞了。
如果一章小说分成了二部分又怎么去下载呢?
比如一个章节的小说 他分成了二部分 分别为1.html和1_2.html 要怎么设置才能下载到呢?我用批量设置里面的[2_2-99_2]这样来下载没反应。