通用网站内容爬虫抓取工具,可批量抓取任意站点的小说、论坛内容等并保存为TXT文档
http://m.funvwu.com/ 这个网址的下载不下来,如果可以希望能更新,谢谢。
.chapterList>ul>li>a>>let href=item.href.replace(/.*goChapter\((\d+)\)/,"/noval/"+localStorage.booklist+"/$1.html");item.href=href;return item;
打开目录页,输入自定义下载
好的谢谢!
http://m.funvwu.com/ 这个网址的下载不下来,如果可以希望能更新,谢谢。