Greasy Fork is available in English.
通用網站內容爬蟲抓取工具,可批量抓取任意站點的小說、論壇內容等並保存為TXT文檔
脚本说明页底部的 FAQ 里有写方法
我之前有尝试过写脚本,好像访问次数多了就会锁IP,但我在下载的过程中更换VPN节点解决了
你好,你知道如何批量选择章节下载吗,我下载69书吧都是一次下一部分但是一个一个点太慢了如何批量选择章节范围下载?求教
我用FAQ中的方法没有成功,所以手动更改了以下部分
var downThreadNum = parseInt(GM_getValue("downThreadNum"));
downThreadNum = 1;
if (useIframe && downThreadNum > 5) {
downThreadNum = 5;
}
if (downThreadNum > 0) {
for (var i = 0; i < downThreadNum; i++) {
downOnce(15000);
if (downIndex >= aEles.length - 1 || downIndex >= downThreadNum - 1) break;
else downIndex++;
}
} else {
downOnce(-downThreadNum * 1000);
if (downIndex < aEles.length - 1 && downIndex < downThreadNum - 1) downIndex++;
}
其中修改的是downThreadNum = 1;和downOnce(15000);
因为我只下载69书吧的书,所以这样改没问题,如果你还需要下别的网站的,建议去把FAQ研究一下吧,我是没成功,不知道哪里错了
网站69shuba.pro对于频繁下载有限制,线程调低到1,最多只能200章,然后锁ip,具体时间不详,反正第二天肯定可以用,如果两张间有延时则没问题,具体时间不知,可否添加下载延时功能,只要线程为1,就可以设置延时,以应对此类网站。谢谢