下载一键通

利用搜狗浏览器“下载一键通”功能的API,自动帮您找到页面中资源的最佳下载地址,让下载更简单!

< Feedback on 下载一键通

Review: Good - script works

文科Mod
§
Posted: 2014-06-16
Edited: 2014-06-16

这个好

虽然火狐也有一个扩展,不过脚本能实现还是用脚本好。
一个建议就是include感觉可以改一下

* DA.strUploadUrl = "http://extention.ie.sogou.com/se_plugin/upload";
//DA.strUploadUrl = "http://10.10.123.238/server_echo";
DA.strDownloadUrl = "http://extention.ie.sogou.com/se_plugin/download";
//DA.strDownloadUrl = "http://10.10.123.238/se_plugin/download";
DA.suffixUrl = "http://extention.ie.sogou.com/se_plugin/newsuffix_type.txt";
DA.downloadUrl = "http://extention.ie.sogou.com/se_plugin/newdownload_list.txt";
DA.uploadUrl = "http://extention.ie.sogou.com/se_plugin/newupload_list.txt";
DA.webDiskUrl = "http://extention.ie.sogou.com/se_plugin/web_disk_list.txt";
DA.testUrl = "http://extention.ie.sogou.com/se_plugin/test_list.txt";
var testCount,downloadCount,uploadCount,webDiskCount,suffixCount;

貌似http://extention.ie.sogou.com/se_plugin/newdownload_list.txt 这个就是匹配的网站?

编辑:感觉匹配的网站实在是太多了,或许直接// @include http* 更好一些吧 ,上面的话当我没说。

§
Posted: 2014-06-16
Edited: 2014-06-16

@include http* 还是太大了。

可以再进行下判断,符合的才去获取。

download_list.txt 和 newdownload_list.txt 有什么区别?

下载助手 这个扩展失效了?

文科Mod
§
Posted: 2014-06-16
Edited: 2014-06-16
@include http* 还是太大了。
可以再进行下判断,符合的才去获取。

http://extention.ie.sogou.com/se_plugin/newdownload_list.txt
731个网站,这么多匹配起来真的没有关系吗?
话说搜狗连这种网站都有http://67.220.91.20/,真是丧心病狂。

编辑:不知道,不过2个都是731个网站,应该都是一样的吧
思萌的扩展倒是没有失效,不过能用脚本就用脚本吧。

greasepigAuthor
§
Posted: 2014-06-16
@include http* 还是太大了。

可以再进行下判断,符合的才去获取。

download_list.txt 和 newdownload_list.txt 有什么区别?

下载助手 这个扩展失效了?

那两个文件好像没什么区别。
脚本里我已经定义了网址列表
一时疏忽忘记加判断了,稍后加上

firefox的那个扩展没用过不清楚。我一般用360Chrome,所以写的脚本主要还是在Chrome上使用。上传到这里的脚本同时也是兼容firefox

greasepigAuthor
§
Posted: 2014-06-16
虽然火狐也有一个扩展,不过脚本能实现还是用脚本好。
一个建议就是include感觉可以改一下
编辑:感觉匹配的网站实在是太多了,或许直接// @include http* 更好一些吧 ,上面的话当我没说。

几百个网址使用include会不会影响浏览器的速度?
脚本里我定义了一个网址数组用来判断,后来忘记加判断语句了⊙﹏⊙b汗

文科Mod
§
Posted: 2014-06-16

几百个网址使用include会不会影响浏览器的速度?
脚本里我定义了一个网址数组用来判断,后来忘记加判断语句了⊙﹏⊙b汗

我知道NoPicAds这个脚本也匹配了很多网站,然后用的是 // @include http://* // @include https://*
猴子的维基上看了一下Include and exclude rules - GreaseSpot Wiki,也没有找到类似的说明。
@legnaleurc 请问一下你知不知道include使用过多会不会有什么副作用?

ps:我还是建议用 // @include http://* // @include https://*
直接用*应该会匹配到不必要的ftp页面

greasepigAuthor
§
Posted: 2014-06-16

ps:我还是建议用 // @include http://* // @include https://*
直接用*应该会匹配到不必要的ftp页面

嗯,看了下newdownload_list.txt文件,都是http://开头的
确实加上http://前缀更好

§
Posted: 2014-06-16
@include http* 还是太大了。
可以再进行下判断,符合的才去获取。
http://extention.ie.sogou.com/se_plugin/newdownload_list.txt
731个网站,这么多匹配起来真的没有关系吗?
话说搜狗连这种网站都有http://67.220.91.20/,真是丧心病狂。

编辑:不知道,不过2个都是731个网站,应该都是一样的吧
思萌的扩展倒是没有失效,不过能用脚本就用脚本吧。

我用这个扩展打开测试的2个网址,都没有反应。。。

文科Mod
§
Posted: 2014-06-16
我用这个扩展打开测试的2个网址,都没有反应。。。

大概是人品问题? 我的都有效

§
Posted: 2014-06-16
Edited: 2014-06-16
我用这个扩展打开测试的2个网址,都没有反应。。。
大概是人品问题? 我的都有效

又试了下,发现这个扩展需要网页完全载入才行,而我测试的配置 google-analytics.com 载入需要很久,所以才久久看不到效果,屏蔽掉 google-analytics 速度就快了。

可以让作者改成 DOMContentLoaded 运行,默认是 onload 才运行。

文科Mod
§
Posted: 2014-06-16

又试了下,发现这个扩展需要网页完全载入才行,而我测试的配置 google-analytics.com 载入需要很久,所以才久久看不到效果,屏蔽掉 google-analytics 速度就快了。
可以让作者改成 DOMContentLoaded 运行,默认是 onload 才运行。

Simon Chan - Google+
G+上说了一下
我用的abp规则把这个网站屏蔽了,虽然我已经把google-analytics.com用hosts屏蔽了。

@greasepig
扩展用的接口似乎有些不一样,
有745个网站 http://extention.ie.sogou.com/se_plugin/download_list.txt
或许应该用这个数据去匹配?

greasepigAuthor
§
Posted: 2014-06-16

扩展用的接口似乎有些不一样,
有745个网站 http://extention.ie.sogou.com/se_plugin/download_list.txt
或许应该用这个数据去匹配?

我定义的数组是半个多月前收集了download_list.txt和newdownload_list.txt里的所有网址,有763个

文科Mod
§
Posted: 2014-06-16

我定义的数组是半个多月前收集了download_list.txt和newdownload_list.txt里的所有网址,有763个

这个够多

§
Posted: 2014-06-16

脚本抓取newdownload_list.txt储存到猴子的储存区如何?

除了第一次抓取慢一点应该没其他的副作用吧 :3
然后设定半个月更新一次检查一次列表更新这样(。

§
Posted: 2014-06-22

我知道NoPicAds这个脚本也匹配了很多网站,然后用的是 // @include http://* // @include https://*
猴子的维基上看了一下Include and exclude rules - GreaseSpot Wiki,也没有找到类似的说明。
@legnaleurc 请问一下你知不知道include使用过多会不会有什么副作用?

貌似是來遲了,不過難得被 quote 還是回一下
當初是因為每個網址的對應動作不同,所以除了給 GreaseMonkey 匹配外,接下來還是要再匹配一輪才知道自己在哪個網頁要做哪些事
時間久了 scirpt 大了發現哎唷不得了,新增移除個網頁要上下捲個一千行(頁首 metadata 頁尾 script),後來就索性全匹配
當然也有被噴過說你這個會變慢啦什麼的,我擦,再慢能慢得過讀秒去?

§
Posted: 2014-06-22

我知道NoPicAds这个脚本也匹配了很多网站,然后用的是 // @include http://* // @include https://*
猴子的维基上看了一下Include and exclude rules - GreaseSpot Wiki,也没有找到类似的说明。
@legnaleurc 请问一下你知不知道include使用过多会不会有什么副作用?
貌似是來遲了,不過難得被 quote 還是回一下
當初是因為每個網址的對應動作不同,所以除了給 GreaseMonkey 匹配外,接下來還是要再匹配一輪才知道自己在哪個網頁要做哪些事
時間久了 scirpt 大了發現哎唷不得了,新增移除個網頁要上下捲個一千行(頁首 metadata 頁尾 script),後來就索性全匹配
當然也有被噴過說你這個會變慢啦什麼的,我擦,再慢能慢得過讀秒去?

这么多网址,本来就应该在脚本内匹配。

文科Mod
§
Posted: 2014-06-22

貌似是來遲了,不過難得被 quote 還是回一下
當初是因為每個網址的對應動作不同,所以除了給 GreaseMonkey 匹配外,接下來還是要再匹配一輪才知道自己在哪個網頁要做哪些事
時間久了 scirpt 大了發現哎唷不得了,新增移除個網頁要上下捲個一千行(頁首 metadata 頁尾 script),後來就索性全匹配
當然也有被噴過說你這個會變慢啦什麼的,我擦,再慢能慢得過讀秒去?

再慢能慢得過讀秒去?
这句说得好,实在不能忍受可以自己有需要的时候再开启脚本嘛。

Post reply

Sign in to post a reply.