通用網站內容爬蟲抓取工具,可批量抓取任意站點的小說、論壇內容等並保存為TXT文檔
加密了。稍微看了下,挺简单的,就是一个 base64 加密。
先用正则抓取页面里面 MemberSingleChapter 后面的密钥,再请求 https://www.shaoniandream.com/booklibrary/membersinglechapter/chapter_id/。
得到一个 data.show_content,然后 base64.decode 就拿到文本了。你可以自己参照我写的规则范例改改
差不多就类似 github 范例16,海棠文化的规则。
当然如果你不想自己写规则而且电脑配置很强悍的话,可以直接打开第一章,用东方永页机一翻到底,然后下载。
差不多就类似 github 范例16,海棠文化的规则。
当然如果你不想自己写规则而且电脑配置很强悍的话,可以直接打开第一章,用东方永页机一翻到底,然后下载。
可惜东方永页机翻的没章节标题,还是得自己写
https://www.shaoniandream.com/book_detail/264
这个网站是点进去之后加载的那一类,而且加载完了就直接是能用脚本下载的,所以自定义代码该怎么写才能下载