利用搜狗浏览器“下载一键通”功能的API,自动帮您找到页面中资源的最佳下载地址,让下载更简单!
@include http* 还是太大了。
可以再进行下判断,符合的才去获取。
download_list.txt 和 newdownload_list.txt 有什么区别?
下载助手 这个扩展失效了?
@include http* 还是太大了。
可以再进行下判断,符合的才去获取。
http://extention.ie.sogou.com/se_plugin/newdownload_list.txt
731个网站,这么多匹配起来真的没有关系吗?
话说搜狗连这种网站都有http://67.220.91.20/,真是丧心病狂。
编辑:不知道,不过2个都是731个网站,应该都是一样的吧
思萌的扩展倒是没有失效,不过能用脚本就用脚本吧。
@include http* 还是太大了。
可以再进行下判断,符合的才去获取。
download_list.txt 和 newdownload_list.txt 有什么区别?
下载助手 这个扩展失效了?
那两个文件好像没什么区别。
脚本里我已经定义了网址列表
一时疏忽忘记加判断了,稍后加上
firefox的那个扩展没用过不清楚。我一般用360Chrome,所以写的脚本主要还是在Chrome上使用。上传到这里的脚本同时也是兼容firefox
虽然火狐也有一个扩展,不过脚本能实现还是用脚本好。
一个建议就是include感觉可以改一下
编辑:感觉匹配的网站实在是太多了,或许直接// @include http* 更好一些吧 ,上面的话当我没说。
几百个网址使用include会不会影响浏览器的速度?
脚本里我定义了一个网址数组用来判断,后来忘记加判断语句了⊙﹏⊙b汗
几百个网址使用include会不会影响浏览器的速度?
脚本里我定义了一个网址数组用来判断,后来忘记加判断语句了⊙﹏⊙b汗
我知道NoPicAds这个脚本也匹配了很多网站,然后用的是 // @include http://* // @include https://*
猴子的维基上看了一下Include and exclude rules - GreaseSpot Wiki,也没有找到类似的说明。
@legnaleurc 请问一下你知不知道include使用过多会不会有什么副作用?
ps:我还是建议用 // @include http://* // @include https://*
直接用*应该会匹配到不必要的ftp页面
@include http* 还是太大了。http://extention.ie.sogou.com/se_plugin/newdownload_list.txt
可以再进行下判断,符合的才去获取。
731个网站,这么多匹配起来真的没有关系吗?
话说搜狗连这种网站都有http://67.220.91.20/,真是丧心病狂。
编辑:不知道,不过2个都是731个网站,应该都是一样的吧
思萌的扩展倒是没有失效,不过能用脚本就用脚本吧。
我用这个扩展打开测试的2个网址,都没有反应。。。
我用这个扩展打开测试的2个网址,都没有反应。。。
大概是人品问题? 我的都有效
我用这个扩展打开测试的2个网址,都没有反应。。。大概是人品问题? 我的都有效
又试了下,发现这个扩展需要网页完全载入才行,而我测试的配置 google-analytics.com 载入需要很久,所以才久久看不到效果,屏蔽掉 google-analytics 速度就快了。
可以让作者改成 DOMContentLoaded 运行,默认是 onload 才运行。
又试了下,发现这个扩展需要网页完全载入才行,而我测试的配置 google-analytics.com 载入需要很久,所以才久久看不到效果,屏蔽掉 google-analytics 速度就快了。
可以让作者改成 DOMContentLoaded 运行,默认是 onload 才运行。
Simon Chan - Google+
G+上说了一下
我用的abp规则把这个网站屏蔽了,虽然我已经把google-analytics.com用hosts屏蔽了。
@greasepig
扩展用的接口似乎有些不一样,
有745个网站 http://extention.ie.sogou.com/se_plugin/download_list.txt
或许应该用这个数据去匹配?
扩展用的接口似乎有些不一样,
有745个网站 http://extention.ie.sogou.com/se_plugin/download_list.txt
或许应该用这个数据去匹配?
我定义的数组是半个多月前收集了download_list.txt和newdownload_list.txt里的所有网址,有763个
我定义的数组是半个多月前收集了download_list.txt和newdownload_list.txt里的所有网址,有763个
这个够多
脚本抓取newdownload_list.txt
储存到猴子的储存区如何?
除了第一次抓取慢一点应该没其他的副作用吧 :3
然后设定半个月更新一次检查一次列表更新这样(。
我知道NoPicAds这个脚本也匹配了很多网站,然后用的是 // @include http://* // @include https://*
猴子的维基上看了一下Include and exclude rules - GreaseSpot Wiki,也没有找到类似的说明。
@legnaleurc 请问一下你知不知道include使用过多会不会有什么副作用?
貌似是來遲了,不過難得被 quote 還是回一下
當初是因為每個網址的對應動作不同,所以除了給 GreaseMonkey 匹配外,接下來還是要再匹配一輪才知道自己在哪個網頁要做哪些事
時間久了 scirpt 大了發現哎唷不得了,新增移除個網頁要上下捲個一千行(頁首 metadata 頁尾 script),後來就索性全匹配
當然也有被噴過說你這個會變慢啦什麼的,我擦,再慢能慢得過讀秒去?
貌似是來遲了,不過難得被 quote 還是回一下
我知道NoPicAds这个脚本也匹配了很多网站,然后用的是 // @include http://* // @include https://*
猴子的维基上看了一下Include and exclude rules - GreaseSpot Wiki,也没有找到类似的说明。
@legnaleurc 请问一下你知不知道include使用过多会不会有什么副作用?
當初是因為每個網址的對應動作不同,所以除了給 GreaseMonkey 匹配外,接下來還是要再匹配一輪才知道自己在哪個網頁要做哪些事
時間久了 scirpt 大了發現哎唷不得了,新增移除個網頁要上下捲個一千行(頁首 metadata 頁尾 script),後來就索性全匹配
當然也有被噴過說你這個會變慢啦什麼的,我擦,再慢能慢得過讀秒去?
这么多网址,本来就应该在脚本内匹配。
貌似是來遲了,不過難得被 quote 還是回一下
當初是因為每個網址的對應動作不同,所以除了給 GreaseMonkey 匹配外,接下來還是要再匹配一輪才知道自己在哪個網頁要做哪些事
時間久了 scirpt 大了發現哎唷不得了,新增移除個網頁要上下捲個一千行(頁首 metadata 頁尾 script),後來就索性全匹配
當然也有被噴過說你這個會變慢啦什麼的,我擦,再慢能慢得過讀秒去?
再慢能慢得過讀秒去?
这句说得好,实在不能忍受可以自己有需要的时候再开启脚本嘛。
这个好
虽然火狐也有一个扩展,不过脚本能实现还是用脚本好。
一个建议就是include感觉可以改一下
貌似http://extention.ie.sogou.com/se_plugin/newdownload_list.txt 这个就是匹配的网站?
编辑:感觉匹配的网站实在是太多了,或许直接// @include http* 更好一些吧 ,上面的话当我没说。