怎么查看一个网站启用未启用织梦robots.txt

浅谈网站使用七牛云存储之后的robots.txt该如何设置? | 张戈博客
现在的位置:
最近因为稳定性考虑,我的2个网站都脱离了360网站卫士的阵营,准备单飞。昨天在模拟CC攻击自己网站的时候,发现十来个并发就扛不住了!
分析了一下原因,在没开启360CDN缓存的情况下,10个并发攻击,硬件配置肯定是没问题的,那么无法访问的原因很明显就是带宽不够!
现在我的服务器带宽已经升级到了2M,也就是峰值250kb/s的样子。试想一下,打开一个页面打开需要100kb的速度才感觉顺畅,如果10个并发,那么每个页面只能分到25kb/s,肯定非常卡!产生10个并发时,2M带宽会被占满,其他客户端根本无法访问,跟挂了没啥区别!
既然不用360CDN了,那么要改善这种带宽不够的情况就得请大名鼎鼎的出马了!
在wp-super-cache插件的CDN设置中填写七牛空间地址,重新启用了这个好久没用过的免费CDN加速(话说我一直把七牛当远程备份用,不知道七牛的产品经理知道了会不会跳出来打我。。。)
启用七牛之后,发现了2个问题:
①、WordPress的Ajax评论无法使用了;
②、纠结存在七牛的静态图片是否要禁用搜索引擎的抓取和收录。
对于问题①:
很好解决,如下修改comments-ajax.js即可:
JavaScript
var i = 0, got = -1, len = document.getElementsByTagName('script').
while ( i &= len && got == -1){
var js_url = document.getElementsByTagName('script')[i].src,
got = js_url.indexOf('comments-ajax.js'); i++ ;
#新增如下行,前面是七牛空间地址,后面是博客地址
js_url = js_url.replace('static.zhangge.net','zhangge.net');
var i = 0, got = -1, len = document.getElementsByTagName('script').while ( i &= len && got == -1){ var js_url = document.getElementsByTagName('script')[i].src,
got = js_url.indexOf('comments-ajax.js'); i++ ;}#新增如下行,前面是七牛空间地址,后面是博客地址js_url = js_url.replace('static.zhangge.net','zhangge.net');
对于问题②:
这有是一个老生常谈的问题,但是每次都会比较纠结!但比较肯定的是,对于七牛这种类似镜像站的域名,还是禁止抓取比较好!否则就会导致收录重复。
张戈博客备案之后,就将static.zhangge.net这个域名cname到了七牛的空间域名,所以网站的静态文件也就可以用这个二级域名来存放。
七牛的空间,创建时默认会有一个robots,禁止所有搜索引擎抓取,内容如下:
User-agent: Baiduspider
Disallow: /
User-agent: Sosospider
Disallow: /
User-agent: sogou spider
Disallow: /
User-agent: YodaoBot
Disallow: /
User-agent: Googlebot
Disallow: /
User-agent: Bingbot
Disallow: /
User-agent: Slurp
Disallow: /
User-agent: MSNBot
Disallow: /
User-agent: googlebot-image
Disallow: /
User-agent: googlebot-mobile
Disallow: /
User-agent: yahoo-blogs/v3.9
Disallow: /
User-agent: psbot
Disallow: /
User-agent: *
Disallow: /
<div class="crayon-num" data-line="crayon-54aeb<div class="crayon-num crayon-striped-num" data-line="crayon-54aeb<div class="crayon-num" data-line="crayon-54aeb<div class="crayon-num crayon-striped-num" data-line="crayon-54aeb<div class="crayon-num" data-line="crayon-54aeb<div class="crayon-num crayon-striped-num" data-line="crayon-54aeb<div class="crayon-num" data-line="crayon-54aeb<div class="crayon-num crayon-striped-num" data-line="crayon-54aeb<div class="crayon-num" data-line="crayon-54aeb<div class="crayon-num crayon-striped-num" data-line="crayon-54aeb<div class="crayon-num" data-line="crayon-54aeb<div class="crayon-num crayon-striped-num" data-line="crayon-54aeb<div class="crayon-num" data-line="crayon-54aeb<div class="crayon-num crayon-striped-num" data-line="crayon-54aeb<div class="crayon-num" data-line="crayon-54aeb<div class="crayon-num crayon-striped-num" data-line="crayon-54aeb<div class="crayon-num" data-line="crayon-54aeb<div class="crayon-num crayon-striped-num" data-line="crayon-54aeb<div class="crayon-num" data-line="crayon-54aeb<div class="crayon-num crayon-striped-num" data-line="crayon-54aeb<div class="crayon-num" data-line="crayon-54aeb<div class="crayon-num crayon-striped-num" data-line="crayon-54aeb<div class="crayon-num" data-line="crayon-54aeb<div class="crayon-num crayon-striped-num" data-line="crayon-54aeb<div class="crayon-num" data-line="crayon-54aeb<div class="crayon-num crayon-striped-num" data-line="crayon-54aeb
User-agent: BaiduspiderDisallow: /User-agent: SosospiderDisallow: /User-agent: sogou spiderDisallow: /User-agent: YodaoBotDisallow: /User-agent: GooglebotDisallow: /User-agent: BingbotDisallow: /User-agent: SlurpDisallow: /User-agent: MSNBotDisallow: /User-agent: googlebot-imageDisallow: /User-agent: googlebot-mobileDisallow: /User-agent: yahoo-blogs/v3.9Disallow: /User-agent: psbotDisallow: /User-agent: *Disallow: /
直接使用这个robots,对SEO肯定是没问题的,避免了搜索引擎抓取到重复的内容。但是,有个小缺憾,使用这个robots之后,以前百度和360搜索结果中的缩略图都会被K掉。因为你的图片被禁止抓取了!!!
个人觉得搜索结果中有特色图片还是不错的,也许会吸引用户点击!
所以,我对放置在七牛空间的robots如下改造(推荐使用):
# robots.txt for statice domain
User-agent: Baiduspider
Allow: /wp-content/uploads/*.jpg$
Allow: /wp-content/uploads/*.png$
Disallow: /
User-agent: 360Spider
Allow: /wp-content/uploads/*.jpg$
Allow: /wp-content/uploads/*.png$
Disallow: /
User-agent: Baiduspider-image
Allow: /wp-content/uploads/*.jpg$
Allow: /wp-content/uploads/*.png$
Disallow: /
User-agent: 360Spider-Image
Allow: /wp-content/uploads/*.jpg$
Allow: /wp-content/uploads/*.png$
Disallow: /
User-agent: *
Disallow: /
<div class="crayon-num" data-line="crayon-54aeb<div class="crayon-num crayon-striped-num" data-line="crayon-54aeb<div class="crayon-num" data-line="crayon-54aeb<div class="crayon-num crayon-striped-num" data-line="crayon-54aeb<div class="crayon-num" data-line="crayon-54aeb<div class="crayon-num crayon-striped-num" data-line="crayon-54aeb<div class="crayon-num" data-line="crayon-54aeb<div class="crayon-num crayon-striped-num" data-line="crayon-54aeb<div class="crayon-num" data-line="crayon-54aeb<div class="crayon-num crayon-striped-num" data-line="crayon-54aeb<div class="crayon-num" data-line="crayon-54aeb<div class="crayon-num crayon-striped-num" data-line="crayon-54aeb<div class="crayon-num" data-line="crayon-54aeb<div class="crayon-num crayon-striped-num" data-line="crayon-54aeb<div class="crayon-num" data-line="crayon-54aeb<div class="crayon-num crayon-striped-num" data-line="crayon-54aeb<div class="crayon-num" data-line="crayon-54aeb<div class="crayon-num crayon-striped-num" data-line="crayon-54aeb<div class="crayon-num" data-line="crayon-54aeb<div class="crayon-num crayon-striped-num" data-line="crayon-54aeb<div class="crayon-num" data-line="crayon-54aeb<div class="crayon-num crayon-striped-num" data-line="crayon-54aeb<div class="crayon-num" data-line="crayon-54aeb
# robots.txt for statice domainUser-agent: BaiduspiderAllow: /wp-content/uploads/*.jpg$Allow: /wp-content/uploads/*.png$Disallow: /&User-agent: 360SpiderAllow: /wp-content/uploads/*.jpg$Allow: /wp-content/uploads/*.png$Disallow: /&User-agent: Baiduspider-imageAllow: /wp-content/uploads/*.jpg$Allow: /wp-content/uploads/*.png$Disallow: /&User-agent: 360Spider-ImageAllow: /wp-content/uploads/*.jpg$Allow: /wp-content/uploads/*.png$Disallow: /&User-agent: *Disallow: /
意思很简单,就是允许百度和360抓取文章中的图片,其他搜索引擎一律禁止抓取!
这样做的好处是:
①、在避免搜索引擎收录七牛重复内容的同时,允许其收录文章的特色图片和内容配图;
②、禁止抓取可以极大的节省七牛空间的GET次数,因为搜索引擎的每一次抓取都将产生一次GET,而七牛免费空间的GET次数是有限制的,我们完全没必要白白浪费。
用百度robots工具检测下:
没啥问题,直接上传到七牛空间,访问 即可看到效果。
今天,在群里谈论到这个问题的时候,龙三兄弟居然说可以在主域名写robots去禁用二级域名的抓取,着实震惊到我了,谁说可以这样写的?
好了,robots的具体规则本文就不罗嗦了,只提2点:
最新补充:第①条说法已被推翻,关于robots优先级,请看最新文章:
①、在robots.txt文件中,前面规则的优先级要高于后面的规则,而且至少要有一条Disallow记录,否则就没有起到禁止抓取的作用了,比如
User-agent: *
Allow: /wp-content/uploads
Disallow: /wp-content/
<div class="crayon-num" data-line="crayon-54aeb<div class="crayon-num crayon-striped-num" data-line="crayon-54aeb<div class="crayon-num" data-line="crayon-54aeb
User-agent: *Allow: /wp-content/uploadsDisallow: /wp-content/
这种写法将允许抓取/wp-content/uploads目录,而不允许抓取/wp-content/目录。
若反过来写:
User-agent: *
Disallow: /wp-content/
Allow: /wp-content/uploads
User-agent: *Disallow: /wp-content/Allow: /wp-content/uploads
这种写法就是错误的,后面一条的Allow将不能生效,因为前面的规则优先级要高些,这么说应该懂了吧?
②、路径【不加斜杠】的规则比【加斜杠】的规则能匹配的范围更大,举例:
User-agent: *
Disallow: /bbs/
<div class="crayon-num" data-line="crayon-54aeb<div class="crayon-num crayon-striped-num" data-line="crayon-54aeb
User-agent: *Disallow: /bbs/
这种写法,确实是禁止了二级目录bbs,但是却没有禁止 /bbs,即未禁止这个二级目录的默认页(比如:WordPress默认的页面地址就是),如果你想禁止目录下的所有内容,就不要带斜杠:
User-agent: *
Disallow: /bbs
User-agent: *Disallow: /bbs
对于第②条说法,可以查看百度官方robots的格式说明中的关于Disallow的说明():
该项的值用于描述不希望被访问的一组URL,这个值可以是一条完整的路径,也可以是路径的非空前缀,以Disallow项的值开头的URL不会被 robot访问。
例如 "Disallow:/help" 禁止robot访问 /help.html、/helpabc.html、/help /index.html,而"Disallow:/help/" 则允许robot访问/help.html、/helpabc.html,不能访问 /help/index.html。"Disallow:"说明允许robot访问该网站的所有url,在"/robots.txt"文件中,至少要有一 条Disallow记录。如果"/robots.txt"不存在或者为空文件,则对于所有的搜索引擎robot,该网站都是开放的。
继续回到带宽瓶颈这个话题,了解网页结构的都知道,占据页面体积的主要是静态文件,比如JS、CSS和图片等。其他字符文字都非常小!
那么,在带宽不足又没开启360一类的CDN加速的时候,利用七牛云存储给网站做简单的动态分离处理的效果是非常不错的!因为最占带宽的静态文件已经交给七牛去处理了,你网站也就输出一些文字字符啥的,就极大的缓解了服务器网络小水管的尴尬!
所以,七牛云存储的主要功能就是分担来自带宽的压力,而不是其他!当网站服务器带宽不够用,又不想用啥云加速或网站卫士的时候,你就可以速度去启用七牛云存储了!
好了,关于七牛云存储和robots设置就说这么多了,发现没用360CDN,现在的速度也是杠杠的!
【上篇】【下篇】
您可能还会对这些文章感兴趣!
优惠主机推荐
文章没看懂,张戈来帮忙。
搜什么就是什么——懂你的云标签!& &&&
随便挑了些,看你喜欢吗?& & & & & & & & &&
) ) ) ) ) ) ) ) )手机软件办公游戏查看: 4437|回复: 15
解析robots.txt的正确使用方法
本帖最后由
00:00 编辑
网友eleven俊问:  1.robots.txt这个Disallow:后面一半怎么写(请举例说明各种情况,越多越好)
  2.robots.txt怎么指明某个东西的未知,比如:网站地图(请将具体的代码写好)
  3.robots.txt在根目录下怎么看?根目录在管理后台(发布跟新文章地方)就可以看,看是空间放源代码文件得地方,这个我分不清楚,求教?
  4.robots还拿哪些问题比较重要的,请写下,感谢!
  大伟的回复:
  robots.txt是在网站空间根目录里面。 给楼主提供一篇文章看看:
  网站能不能被搜索引擎索引到,除了看有没有向搜索引擎入口提交、有否与其他站点交换链接等之外,还得看根目录底下的robots.txt文件有没有禁止搜索引擎的收录,这里摘录一些关于robots.txt文件的写法备忘。
  什么是robots.txt文件
  搜索引擎通过一种爬虫spider程序(又称搜索蜘蛛、robot、搜索机器人等),自动搜集互联网上的网页并获取相关信息。
  鉴于网络安全与隐私的考虑,搜索引擎遵循robots.txt协议。通过在根目录中创建的纯文本文件robots.txt,网站可以声明不想被robots访问的部分。每个网站都可以自主控制网站是否愿意被搜索引擎收录,或者指定搜索引擎只收录指定的内容。当一个搜索引擎的爬虫访问一个站点时,它会首先检查该站点根目录下是否存在robots.txt,如果该文件不存在,那么爬虫就沿着链接抓取,如果存在,爬虫就会按照该文件中的内容来确定访问的范围。
  robots.txt必须放置在一个站点的根目录下,而且文件名必须全部小写。
  robots.txt文件的写法
  robots.txt文件的格式
  User-agent: 定义搜索引擎的类型
  Disallow: 定义禁止搜索引擎收录的地址
  Allow: 定义允许搜索引擎收录的地址
  我们常用的搜索引擎类型有:
  google蜘蛛:googlebot
  百度蜘蛛:baiduspider
  yahoo蜘蛛:slurp
  alexa蜘蛛:ia_archiver
  msn蜘蛛:msnbot
  altavista蜘蛛:scooter
  lycos蜘蛛:lycos_spider_(t-rex)
  alltheweb蜘蛛:fast-webcrawler
  inktomi蜘蛛: slurp
  robots.txt文件的写法
  User-agent: *    这里的*代表的所有的搜索引擎种类,*是一个通配符
  Disallow: /admin/ 这里定义是禁止爬寻admin目录下面的目录
  Disallow: /require/   这里定义是禁止爬寻require目录下面的目录
  Disallow: /require/ 这里定义是禁止爬寻require目录下面的目录
  Disallow: /ABC 这里定义是禁止爬寻ABC整个目录
  Disallow: /cgi-bin/*.htm 禁止访问/cgi-bin/目录下的所有以&.htm&为后缀的URL(包含子目录)。
  Disallow: /*?* 禁止访问网站中所有的动态页面
  Disallow: .jpg$ 禁止抓取网页所有的.jpg格式的图片
  Disallow:/ab/adc.html 禁止爬寻ab文件夹下面的adc.html所有文件
  User-agent: *   这里的*代表的所有的搜索引擎种类,*是一个通配符
  Allow: /cgi-bin/  这里定义是允许爬寻cgi-bin目录下面的目录
  Allow: /tmp 这里定义是允许爬寻tmp的整个目录
  Allow: .htm$ 仅允许访问以&.htm&为后缀的URL。
  Allow: .gif$ 允许抓取网页和gif格式图片
  robots.txt文件用法举例
  例1. 禁止所有搜索引擎访问网站的任何部分
  User-agent: *
  Disallow: /
  实例分析:淘宝网的 Robots.txt文件
  User-agent: Baiduspider
  Disallow: /
  很显然淘宝不允许百度的机器人访问其网站下其所有的目录。
  例2. 允许所有的robot访问 (或者也可以建一个空文件 “/robots.txt” file)
  User-agent: *
  Disallow:
  例3. 禁止某个搜索引擎的访问
  User-agent: BadBot
  Disallow: /
  例4. 允许某个搜索引擎的访问
  User-agent: baiduspider
  Disallow: User-agent: *
  Disallow: /
  例5.一个简单例子
  在这个例子中,该网站有三个目录对搜索引擎的访问做了限制,即搜索引擎不会访问这三个目录。
  需要注意的是对每一个目录必须分开声明,而不要写成 “Disallow: /cgi-bin/ /tmp/”。
  User-agent:后的*具有特殊的含义,代表“any robot”,所以在该文件中不能有“Disallow: /tmp/*” or “Disallow:*.gif”这样的记录出现。
  User-agent: *
  Disallow: /cgi-bin/
  Disallow: /tmp/
  Disallow: /~joe/
  Robots特殊参数:
  允许 Googlebot:
  如果您要拦截除 Googlebot 以外的所有漫游器访问您的网页,可以使用下列语法:
  User-agent:
  Disallow:/
  User-agent:Googlebot
  Disallow:
  Googlebot 跟随指向它自己的行,而不是指向所有漫游器的行。
  “Allow”扩展名:
  Googlebot 可识别称为“Allow”的 robots.txt 标准扩展名。其他搜索引擎的漫游器可能无法识别此扩展名,因此请使用您感兴趣的其他搜索引擎进行查找。“Allow”行的作用原理完全与“Disallow”行一样。只需列出您要允许的目录或页面即可。
  您也可以同时使用“Disallow”和“Allow”。例如,要拦截子目录中某个页面之外的其他所有页面,可以使用下列条目:
  User-Agent:Googlebot
  Disallow:/folder1/
  Allow:/folder1/myfile.html
  这些条目将拦截 folder1 目录内除 myfile.html 之外的所有页面。
  如果您要拦截 Googlebot 并允许 Google 的另一个漫游器(如 Googlebot-Mobile),可使用”Allow”规则允许该漫游器的访问。例如:
  User-agent:Googlebot
  Disallow:/
  User-agent:Googlebot-Mobile
  Allow:
  使用 * 号匹配字符序列:
  您可使用星号 (*) 来匹配字符序列。例如,要拦截对所有以 private 开头的子目录的访问,可使用下列条目:
  User-Agent:Googlebot
  Disallow:/private*/
  要拦截对所有包含问号 (?) 的网址的访问,可使用下列条目:
  User-agent:*
  Disallow:/*?*
  使用 $ 匹配网址的结束字符
  您可使用 $ 字符指定与网址的结束字符进行匹配。例如,要拦截以 .asp 结尾的网址,可使用下列条目:
  User-Agent:Googlebot
  Disallow:/*.asp$
  您可将此模式匹配与 Allow 指令配合使用。例如,如果 ? 表示一个会话 ID,您可排除所有包含该 ID 的网址,确保 Googlebot 不会抓取重复的网页。但是,以 ? 结尾的网址可能是您要包含的网页版本。在此情况下,可对 robots.txt 文件进行如下设置:
  User-agent:*
  Allow:/*?$
  Disallow:/*?
  Disallow:/ *?
  一行将拦截包含 ? 的网址(具体而言,它将拦截所有以您的域名开头、后接任意字符串,然后是问号 (?),而后又是任意字符串的网址)。
  Allow: /*?$ 一行将允许包含任何以 ? 结尾的网址(具体而言,它将允许包含所有以您的域名开头、后接任意字符串,然后是问号 (?),问号之后没有任何字符的网址)。
  Robots Meta标签
  Robots.txt文件主要是限制整个站点或者目录的搜索引擎访问情况,而Robots Meta标签则主要是针对一个个具体的页面。和其他的META标签(如使用的语言、页面的描述、关键词等)一样,Robots Meta标签也是放在页面的中,专门用来告诉搜索引擎ROBOTS如何抓取该页的内容。
  Robots Meta标签中没有大小写之分,name=”Robots”表示所有的搜索引擎,可以针对某个具体搜索引擎写为name=”BaiduSpider”。content部分有四个指令选项:index、noindex、follow、nofollow,指令间以“,”分隔。
  index指令告诉搜索机器人抓取该页面;
  follow指令表示搜索机器人可以沿着该页面上的链接继续抓取下去;
  Robots Meta标签的缺省值是index和follow,只有inktomi除外,对于它,缺省值是index、nofollow。
  需要注意的是:上述的robots.txt和Robots Meta标签限制搜索引擎机器人(ROBOTS)抓取站点内容的办法只是一种规则,需要搜索引擎机器人的配合才行,并不是每个ROBOTS都遵守的。
  目前看来,绝大多数的搜索引擎机器人都遵守robots.txt的规则,而对于RobotsMETA标签,目前支持的并不多,但是正在逐渐增加,如著名搜索引擎GOOGLE就完全支持,而且GOOGLE还增加了一个指令“archive”,可以限制GOOGLE是否保留网页快照。
  Sitemap 网站地图
  对网站地图的新的支持方式,就是在robots.txt文件里直接包括sitemap文件的链接。就像这样:Sitemap:http://www.********.cn/sitemap.xml
  目前对此表示支持的搜索引擎公司有Google, Yahoo和MSN。不过,大伟建议还是在Google Sitemap进行提交,里面有很多功能可以分析你的链接状态。
作者信息:大伟 - 真名:马林,世界学习室创始人、世界学习室QQ交流群欢迎大家加入内涵丰富资料。想看作者更多文章请搜索世界学习室或者,还可以登陆
版权声明:欢迎转载,转载请注明原作者,转载时请保留原作者信息,谢谢合作。
很有用,MARK一下。
头像被屏蔽
提示: 作者被禁止或删除 内容自动屏蔽
头像被屏蔽
提示: 作者被禁止或删除 内容自动屏蔽
头像被屏蔽
提示: 作者被禁止或删除 内容自动屏蔽
头像被屏蔽
提示: 作者被禁止或删除 内容自动屏蔽
头像被屏蔽
提示: 作者被禁止或删除 内容自动屏蔽
学习一下了
头像被屏蔽
提示: 作者被禁止或删除 内容自动屏蔽
支持下吧!
Powered by吴贤茂:robots.txt与sitemap的运用 - A5站长网
当前位置:
吴贤茂:robots.txt与sitemap的运用
14:51&&来源:&
  首先我先讲解一下什么是robots.txt,robots.txt是搜索引擎中访问网站的时候要查看的第一个文件。Robots.txt文件告诉蜘蛛程序在服务器上什么文件是可以被查看的。当一个搜索蜘蛛访问一个站点时,它会首先检查该站点根目录下是否存在robots.txt,如果存在,搜索机器人就会按照该文件中的内容来确定访问的范围;如果该文件不存在,所有的搜索蜘蛛将能够访问网站上所有没有被口令保护的页面。
  然而很多人都知道有robots这回事,却不知道应该如何下手,今天我说下如何来写robots.txt 首先你要想一下那些网站目录是不想被搜索蜘蛛给抓取的,哪些是需要被抓取的,这个很重要,如果乱写robots有可能会把屏蔽网站给搜索引擎收录的。
  robots.txt文件一定要写在网站的根目录上面,例如:
  www.***com/robots.txt
  而不能这样
  www.***.com/seo/robots.txt
  记得一定要在根目录就对了,然后里面的写法有两条
  User-Agent: 适用下列规则的漫游器
  Disallow: 要拦截的网页
  User-Agent: Googlebot(baiduspider)这个就是谷歌(百度)的蜘蛛
  Disallow: /seo
  这样写的意思就是说我不想google或者百度的蜘蛛来抓取我seo这个文件夹里面的东西,*的话就代表全部。如果你建立一个空的或者不建立robots的话,该网站的全部内容都会搜索引擎所收录,然后很多人就会问了,网站不是被收录的越多越好吗?
  我就打个比方吧,你的网站生成静态,然而之前的动态又还在,蜘蛛就是抓取两个同时收录,然后搜索引擎就会认为两个标题相同的文章出现在同一网站的话就会认为你是在作弊了,有可能会被降权。
  sitemap(网站地图)
  主要是因为很多网站的内容都没有其他链接,为了把这些链接更好的连接起来,让蜘蛛能抓取更多的资源。如果是谷歌的话,大家可以注册个管理员工具,生成的XML文件自己提交给谷歌,百度没有管理员工具的话就可以通过在robots.txt里面写Sitemap
  写法如下:
  Sitemap:http://www.***.com/sitemap.xml
  Sitemap:http://www.***.com/sitemap.txt
  Sitemap:http://www.***.com/sitemap.html
  这三种形式都可以,一般自动都会生成xml,如果不会生成sitemap可以去网上找下工具或者使用一些开源的cms都会有自带的!本文由站长供稿!
责任编辑:admin
作者:艾纳
延伸阅读:关键词:
站长杂谈 草根站长信息中心我在一个Excel中写了程序
可是这个Excel不能保存...
弹出以下对话框
怎么回事啊?
我看这里很多例子都是一个Excel文件里面有vb项目的啊...
我的咋就不能保存呢?
附件上传不上来.....
说我的图片是无效的图片文件....
那我把提示信息都写出来吧....
若要使保存的文件具有这些功能,请点击&否&,然后从文件类型中选择一个启用宏的文件类型.
若要继续保存未启用宏的工作簿,请点&是&...
问题是,,我点否,后,,看那列表,启用宏的工作簿 的扩展名为xlsm,怎么没有扩展名为xls的...
我看这论坛中的Excel都是xls的啊?
大虾们救救我 啊
猜你喜欢看
在线时间73 小时经验98 威望0 性别女最后登录注册时间阅读权限20UID812067积分135帖子精华0分享0
EH初级, 积分 135, 距离下一级还需 215 积分
积分排行3000+帖子精华0微积分0
回复 1楼 sobne 的帖子
我也是一样的问题,怎么都不行,上次做的窗体都没了呢,郁闷!谁会啊?求救
在线时间73 小时经验98 威望0 性别女最后登录注册时间阅读权限20UID812067积分135帖子精华0分享0
EH初级, 积分 135, 距离下一级还需 215 积分
积分排行3000+帖子精华0微积分0
回复 1楼 sobne 的帖子
刚刚解决了 在 若要使保存的文件具有这些功能,请点击&否&,然后从文件类型中选择一个启用宏的文件类型.若要继续保存未启用宏的工作簿,请点&是&...
点否 会出现另存为的对话框,最后一个文件类型选择 启用宏的xlsm文件即可。会自动保存的
在线时间11 小时经验13 威望0 性别保密最后登录注册时间阅读权限10UID702086积分19帖子精华0分享0
EH新人, 积分 19, 距离下一级还需 1 积分
积分排行3000+帖子精华0微积分0
我也遇到了类似的问题,有高手来解释一下是什么原因吗?谢谢
在线时间33 小时经验19 威望0 性别保密最后登录注册时间阅读权限10UID1066241积分19帖子精华0分享0
EH新人, 积分 19, 距离下一级还需 1 积分
积分排行3000+帖子精华0微积分0
是不是excel2010设置的扩展名为.xlsx的文件不能带宏啊
保存为.xlsm(启用宏的工作簿)就可以
我也发现这个问题了,是不是2010版的设置啊
在线时间36 小时经验50 威望0 性别保密最后登录注册时间阅读权限20UID813953积分50帖子精华0分享0
EH初级, 积分 50, 距离下一级还需 300 积分
积分排行3000+帖子精华0微积分0
应该是新版问题,我也不懂
在线时间2023 小时经验2326 威望0 性别男最后登录注册时间阅读权限70UID50062积分2376帖子精华0分享0
EH铁杆, 积分 2376, 距离下一级还需 824 积分
积分排行425帖子精华0微积分0
单文件版的2007也有另存为xlsm和xls选项
(52.05 KB, 下载次数: 19)
09:47 上传
下载次数: 19
在线时间100 小时经验5 威望0 性别保密最后登录注册时间阅读权限10UID1171272积分5帖子精华0分享0
EH新人, 积分 5, 距离下一级还需 15 积分
积分排行3000+帖子精华0微积分0
哦。原来是这样。
在线时间12 小时经验15 威望0 性别男最后登录注册时间阅读权限10UID1311828积分15帖子精华0分享0
EH新人, 积分 15, 距离下一级还需 5 积分
积分排行3000+帖子精华0微积分0
应该不是2010的问题,我用2007,也有一样的问题
在线时间0 小时经验1 威望0 性别保密最后登录注册时间阅读权限10UID1453158积分1帖子精华0分享0
EH新人, 积分 1, 距离下一级还需 19 积分
积分排行3000+帖子精华0微积分0
点否 会出现另存为的对话框,最后一个文件类型选择 启用宏的xlsm文件即可。
XYN8512,说得对,多谢!
关注我们,与您相约微信公众平台!
Copyright 1999 - 2017 Excel Home. All Rights Reserved.本论坛言论纯属发表者个人意见,任何违反国家相关法律的言论,本站将协助国家相关部门追究发言者责任!
Powered by
本站特聘法律顾问:徐怀玉律师 李志群律师 &&

我要回帖

更多关于 织梦robots.txt 的文章

 

随机推荐